ChatPaper.aiChatPaper

AgentGL: Auf dem Weg zu agentenbasierter Graph-Lernmethode mit LLMs durch Reinforcement Learning

AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning

April 7, 2026
Autoren: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) setzen zunehmend auf agentenbasierte Fähigkeiten – iteratives Retrieval, Werkzeugnutzung und Entscheidungsfindung –, um die Grenzen statischen, parametrischen Wissens zu überwinden. Bisherige agentenbasierte Frameworks behandeln externe Informationen jedoch als unstrukturierten Text und nutzen die topologischen Abhängigkeiten, die realen Daten inhärent sind, nicht aus. Um diese Lücke zu schließen, führen wir Agentic Graph Learning (AGL) ein, ein Paradigma, das Graph-Lernen als einen verschachtelten Prozess von topologiebewusster Navigation und LLM-basierter Inferenz neu definiert. Konkret schlagen wir AgentGL vor, das erste durch Reinforcement Learning (RL) gesteuerte Framework für AGL. AgentGL stattet einen LLM-Agenten mit graphnativen Werkzeugen für die Multi-Scale-Exploration aus, reguliert die Werkzeugnutzung durch suchbeschränktes Denken, um Genauigkeit und Effizienz abzuwägen, und setzt eine graphkonditionierte Curriculum-RL-Strategie ein, um das Lernen von Langzeithorizont-Policies ohne schrittweise Überwachung zu stabilisieren. In verschiedenen Text-Attributed Graph (TAG)-Benchmarks und mit mehreren LLM-Backbones übertrifft AgentGL starke GraphLLM- und GraphRAG-Baselines deutlich und erzielt absolute Verbesserungen von bis zu 17,5 % bei der Knotenklassifikation und 28,4 % bei der Linkvorhersage. Diese Ergebnisse zeigen, dass AGL eine vielversprechende Perspektive darstellt, um LLMs zu befähigen, komplexe relationale Umgebungen autonom zu navigieren und darüber zu schlussfolgern. Der Code ist öffentlich verfügbar unter https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.
PDF21April 10, 2026