ChatPaper.aiChatPaper

AgentGL : Vers un apprentissage sur graphes agentique avec les LLMs via l'apprentissage par renforcement

AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning

April 7, 2026
Auteurs: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI

Résumé

Les modèles de langage de grande taille (LLM) reposent de plus en plus sur des capacités agentiques - récupération itérative, utilisation d'outils et prise de décision - pour dépasser les limites des connaissances paramétriques statiques. Pourtant, les frameworks agentiques existants traitent les informations externes comme du texte non structuré et ne parviennent pas à exploiter les dépendances topologiques inhérentes aux données du monde réel. Pour combler cette lacune, nous introduisons l'Apprentissage sur Graphes Agentique (AGL), un paradigme qui reformule l'apprentissage sur graphes comme un processus entrelacé de navigation sensible à la topologie et d'inférence basée sur les LLM. Plus précisément, nous proposons AgentGL, le premier framework piloté par apprentissage par renforcement (RL) pour l'AGL. AgentGL dote un agent LLM d'outils natifs des graphes pour une exploration multi-échelle, régule l'utilisation des outils via une réflexion contrainte par la recherche pour équilibrer précision et efficacité, et emploie une stratégie de RL curriculaire conditionnée par le graphe pour stabiliser l'apprentissage de politiques à long terme sans supervision étape par étape. Sur divers benchmarks de graphes à attributs textuels (TAG) et avec plusieurs architectures de LLM, AgentGL surpasse substantiellement les solides bases de référence GraphLLM et GraphRAG, atteignant des améliorations absolues allant jusqu'à 17,5 % en classification de nœuds et 28,4 % en prédiction de liens. Ces résultats démontrent que l'AGL est une frontière prometteuse pour permettre aux LLM de naviguer et de raisonner de manière autonome dans des environnements relationnels complexes. Le code est publiquement disponible à l'adresse https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.
PDF21April 10, 2026