ChatPaper.aiChatPaper

A-RAG : Mise à l'échelle de la Génération Augmentée par Récupération Agentique via des Interfaces de Récupération Hiérarchiques

A-RAG: Scaling Agentic Retrieval-Augmented Generation via Hierarchical Retrieval Interfaces

February 3, 2026
papers.authors: Mingxuan Du, Benfeng Xu, Chiwei Zhu, Shaohan Wang, Pengyu Wang, Xiaorui Wang, Zhendong Mao
cs.AI

papers.abstract

Les modèles de langage de pointe ont démontré de solides capacités de raisonnement et d'utilisation d'outils sur le long terme. Cependant, les systèmes RAG existants ne parviennent pas à exploiter ces capacités. Ils reposent encore sur deux paradigmes : (1) concevoir un algorithme qui récupère des passages en une seule fois et les concatène dans l'entrée du modèle, ou (2) prédéfinir un workflow et inciter le modèle à l'exécuter étape par étape. Aucun de ces paradigmes ne permet au modèle de participer aux décisions de récupération, empêchant ainsi une mise à l'échelle efficace avec les améliorations du modèle. Dans cet article, nous présentons A-RAG, un cadre RAG agentique qui expose des interfaces de récupération hiérarchique directement au modèle. A-RAG fournit trois outils de récupération : recherche par mots-clés, recherche sémantique et lecture de segments, permettant à l'agent de rechercher et de récupérer des informations de manière adaptative sur plusieurs granularités. Les expériences sur plusieurs benchmarks de questions-réponses en domaine ouvert montrent qu'A-RAG surpasse constamment les approches existantes avec un nombre comparable ou inférieur de tokens récupérés, démontrant qu'A-RAG exploite efficacement les capacités du modèle et s'adapte dynamiquement aux différentes tâches RAG. Nous étudions en outre systématiquement comment A-RAG évolue avec la taille du modèle et le calcul au moment du test. Nous publierons notre code et notre suite d'évaluation pour faciliter les recherches futures. Le code et la suite d'évaluation sont disponibles à l'adresse https://github.com/Ayanami0730/arag.
English
Frontier language models have demonstrated strong reasoning and long-horizon tool-use capabilities. However, existing RAG systems fail to leverage these capabilities. They still rely on two paradigms: (1) designing an algorithm that retrieves passages in a single shot and concatenates them into the model's input, or (2) predefining a workflow and prompting the model to execute it step-by-step. Neither paradigm allows the model to participate in retrieval decisions, preventing efficient scaling with model improvements. In this paper, we introduce A-RAG, an Agentic RAG framework that exposes hierarchical retrieval interfaces directly to the model. A-RAG provides three retrieval tools: keyword search, semantic search, and chunk read, enabling the agent to adaptively search and retrieve information across multiple granularities. Experiments on multiple open-domain QA benchmarks show that A-RAG consistently outperforms existing approaches with comparable or lower retrieved tokens, demonstrating that A-RAG effectively leverages model capabilities and dynamically adapts to different RAG tasks. We further systematically study how A-RAG scales with model size and test-time compute. We will release our code and evaluation suite to facilitate future research. Code and evaluation suite are available at https://github.com/Ayanami0730/arag.
PDF171February 6, 2026