AgentGL: К агентному обучению на графах с использованием больших языковых моделей через обучение с подкреплением
AgentGL: Towards Agentic Graph Learning with LLMs via Reinforcement Learning
April 7, 2026
Авторы: Yuanfu Sun, Kang Li, Dongzhe Fan, Jiajin Liu, Qiaoyu Tan
cs.AI
Аннотация
Крупные языковые модели (LLM) все чаще полагаются на агентские возможности — итеративный поиск, использование инструментов и принятие решений — чтобы преодолеть ограничения статических параметрических знаний. Однако существующие агентские фреймворки рассматривают внешнюю информацию как неструктурированный текст и не используют топологические зависимости, присущие реальным данным. Чтобы устранить этот разрыв, мы представляем Agentic Graph Learning (AGL) — парадигму, которая переосмысливает обучение на графах как чередующийся процесс навигации с учетом топологии и вывода на основе LLM. В частности, мы предлагаем AgentGL, первую систему для AGL, управляемую обучением с подкреплением (RL). AgentGL оснащает агента-LLM инструментами для нативного исследования графа в мультимасштабном режиме, регулирует использование инструментов с помощью поисково-ограниченного мышления для баланса точности и эффективности и применяет стратегию RL с графо-обусловленным учебным планом для стабилизации обучения политики на длинных горизонтах без пошагового контроля. На разнообразных бенчмарках Text-Attributed Graph (TAG) и с различными архитектурами LLM AgentGL существенно превосходит сильные базовые линии GraphLLM и GraphRAG, демонстрируя абсолютное улучшение до 17,5% в классификации узлов и 28,4% в предсказании связей. Эти результаты показывают, что AGL является перспективным направлением для enabling LLM к автономной навигации и рассуждению в сложных реляционных средах. Код доступен по адресу https://github.com/sunyuanfu/AgentGL.
English
Large Language Models (LLMs) increasingly rely on agentic capabilities-iterative retrieval, tool use, and decision-making-to overcome the limits of static, parametric knowledge. Yet existing agentic frameworks treat external information as unstructured text and fail to leverage the topological dependencies inherent in real-world data. To bridge this gap, we introduce Agentic Graph Learning (AGL), a paradigm that reframes graph learning as an interleaved process of topology-aware navigation and LLM-based inference. Specifically, we propose AgentGL, the first reinforcement learning (RL)-driven framework for AGL. AgentGL equips an LLM agent with graph-native tools for multi-scale exploration, regulates tool usage via search-constrained thinking to balance accuracy and efficiency, and employs a graph-conditioned curriculum RL strategy to stabilize long-horizon policy learning without step-wise supervision. Across diverse Text-Attributed Graph (TAG) benchmarks and multiple LLM backbones, AgentGL substantially outperforms strong GraphLLMs and GraphRAG baselines, achieving absolute improvements of up to 17.5% in node classification and 28.4% in link prediction. These results demonstrate that AGL is a promising frontier for enabling LLMs to autonomously navigate and reason over complex relational environments. The code is publicly available at https://github.com/sunyuanfu/AgentGL.