AgentGL: Rumo ao Aprendizado de Grafos Agêntico com LLMs via Aprendizado por Reforço
AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning
April 7, 2026
Autores: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI
Resumo
Os Grandes Modelos de Linguagem (LLMs) dependem cada vez mais de capacidades agentes — recuperação iterativa, uso de ferramentas e tomada de decisão — para superar os limites do conhecimento paramétrico e estático. No entanto, as estruturas agentes existentes tratam a informação externa como texto não estruturado e não conseguem aproveitar as dependências topológicas inerentes aos dados do mundo real. Para colmatar esta lacuna, introduzimos a Aprendizagem de Grafos Agente (AGL), um paradigma que reformula a aprendizagem de grafos como um processo intercalado de navegação com consciência topológica e inferência baseada em LLM. Especificamente, propomos o AgentGL, a primeira estrutura orientada por aprendizagem por reforço (RL) para AGL. O AgentGL equipa um agente LLM com ferramentas nativas de grafos para exploração multi-escala, regula o uso de ferramentas através de um pensamento com restrições de busca para equilibrar precisão e eficiência, e emprega uma estratégia de RL curricular condicionada por grafos para estabilizar a aprendizagem de políticas de longo horizonte sem supervisão passo a passo. Em diversos benchmarks de Grafos com Atributos Textuais (TAG) e múltiplas arquiteturas de LLM, o AgentGL supera substancialmente fortes baselines de GraphLLMs e GraphRAG, alcançando melhorias absolutas de até 17,5% na classificação de nós e 28,4% na previsão de ligações. Estes resultados demonstram que a AGL é uma fronteira promissora para permitir que os LLMs naveguem e raciocinem de forma autónoma em ambientes relacionais complexos. O código está publicamente disponível em https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.