ChatPaper.aiChatPaper

AgentGL: Naar Agentgericht Grafisch Leren met LLM's via Versterkend Leren

AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning

April 7, 2026
Auteurs: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI

Samenvatting

Grote Taalmodellen (LLM's) vertrouwen in toenemende mate op agent-mogelijkheden – iteratief ophalen van informatie, gereedschapsgebruik en besluitvorming – om de grenzen van statische, parametrische kennis te overstijgen. Toch behandelen bestaande agent-frameworks externe informatie als ongestructureerde tekst en benutten ze de topologische afhankelijkheden die inherent zijn aan real-world data niet. Om deze kloof te overbruggen, introduceren wij Agentic Graph Learning (AGL), een paradigma dat grafisch leren herformuleert als een vervlochten proces van topologiebewuste navigatie en op LLM gebaseerde inferentie. Concreet stellen wij AgentGL voor, het eerste op reinforcement learning (RL) gebaseerde framework voor AGL. AgentGL rust een LLM-agent uit met grafisch-inherente gereedschappen voor multi-schaalverkenning, reguleert het gereedschapsgebruik via zoekbeperkt denken om nauwkeurigheid en efficiëntie in balans te brengen, en hanteert een grafisch-geconditioneerde curriculum RL-strategie om langetermijnbeleidsleren te stabiliseren zonder stap-voor-stap supervisie. Op diverse Text-Attributed Graph (TAG)-benchmarks en met meerdere LLM-backbones presteert AgentGL aanzienlijk beter dan sterke GraphLLM- en GraphRAG-basislijnen, met absolute verbeteringen tot 17,5% bij knooppuntclassificatie en 28,4% bij linkvoorspelling. Deze resultaten tonen aan dat AGL een veelbelovend onderzoeksgebied is om LLM's in staat te stellen autonoom te navigeren en te redeneren over complexe relationele omgevingen. De code is openbaar beschikbaar op https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.
PDF102April 17, 2026