ChatPaper.aiChatPaper

AgentGL: Hacia el Aprendizaje de Grafos Agéntico con LLMs mediante Aprendizaje por Refuerzo

AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning

April 7, 2026
Autores: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLM) dependen cada vez más de capacidades de agente—recuperación iterativa, uso de herramientas y toma de decisiones—para superar los límites del conocimiento paramétrico estático. Sin embargo, los marcos de agentes existentes tratan la información externa como texto no estructurado y no aprovechan las dependencias topológicas inherentes a los datos del mundo real. Para cerrar esta brecha, presentamos el Aprendizaje de Grafos por Agentes (AGL), un paradigma que replantea el aprendizaje de grafos como un proceso entrelazado de navegación consciente de la topología e inferencia basada en LLM. Específicamente, proponemos AgentGL, el primer marco impulsado por aprendizaje por refuerzo (RL) para AGL. AgentGL dota a un agente LLM con herramientas nativas de grafos para exploración multi-escala, regula el uso de herramientas mediante pensamiento restringido por búsqueda para equilibrar precisión y eficiencia, y emplea una estrategia de RL curricular condicionada por grafos para estabilizar el aprendizaje de políticas de largo horizonte sin supervisión paso a paso. En diversos benchmarks de Grafos con Atributos de Texto (TAG) y múltiples arquitecturas base de LLM, AgentGL supera sustancialmente a fuertes líneas base de GraphLLM y GraphRAG, logrando mejoras absolutas de hasta el 17.5% en clasificación de nodos y el 28.4% en predicción de enlaces. Estos resultados demuestran que AGL es una frontera prometedora para permitir que los LLM naveguen y razonen autónomamente sobre entornos relacionales complejos. El código está disponible públicamente en https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.
PDF21April 10, 2026