ChatPaper.aiChatPaper

AgentGL: Verso un Apprendimento Grafico Agente con LLM tramite Apprendimento per Rinforzo

AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning

April 7, 2026
Autori: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI

Abstract

I Large Language Model (LLM) fanno sempre più affidamento su capacità agenti - recupero iterativo, uso di strumenti e processo decisionale - per superare i limiti della conoscenza parametrica statica. Tuttavia, i framework agenti esistenti trattano le informazioni esterne come testo non strutturato e non riescono a sfruttare le dipendenze topologiche intrinseche dei dati del mondo reale. Per colmare questa lacuna, introduciamo l'Agentic Graph Learning (AGL), un paradigma che riformula l'apprendimento su grafi come un processo intervallato di navigazione consapevole della topologia e inferenza basata su LLM. Nello specifico, proponiamo AgentGL, il primo framework guidato da reinforcement learning (RL) per l'AGL. AgentGL fornisce a un agente LLM strumenti nativi per i grafi per un'esplorazione multi-scala, regola l'uso degli strumenti tramite un ragionamento vincolato dalla ricerca per bilanciare accuratezza ed efficienza, e impiega una strategia di RL curriculare condizionata dal grafo per stabilizzare l'apprendimento di politiche a lungo termine senza una supervisione passo-passo. Su vari benchmark di Text-Attributed Graph (TAG) e con diversi LLM di base, AgentGL supera sostanzialmente forti baseline di GraphLLM e GraphRAG, ottenendo miglioramenti assoluti fino al 17,5% nella classificazione dei nodi e al 28,4% nella predizione dei link. Questi risultati dimostrano che l'AGL è una frontiera promettente per consentire agli LLM di navigare e ragionare autonomamente in ambienti relazionali complessi. Il codice è pubblicamente disponibile all'indirizzo https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.
PDF102April 17, 2026