ChatPaper.aiChatPaper

A-RAG: Schaalvergroting van Agent-gebaseerde Retrieval-Augmented Generation via Hiërarchische Retrieval-interfaces

A-RAG: Scaling Agentic Retrieval-Augmented Generation via Hierarchical Retrieval Interfaces

February 3, 2026
Auteurs: Mingxuan Du, Benfeng Xu, Chiwei Zhu, Shaohan Wang, Pengyu Wang, Xiaorui Wang, Zhendong Mao
cs.AI

Samenvatting

Frontier-taalmodellen hebben sterke redeneer- en tool-use-vaardigheden voor lange-termijn taken aangetoond. Echter, bestaande RAG-systemen slagen er niet in deze capaciteiten te benutten. Zij blijven vertrouwen op twee paradigma's: (1) het ontwerpen van een algoritme dat passages in één keer ophaalt en deze aaneenschakelt in de invoer van het model, of (2) het vooraf definiëren van een workflow en het model stap-voor-stap aansturen om deze uit te voeren. Geen van beide paradigma's stelt het model in staat deel te nemen aan retrieval-beslissingen, wat een efficiënte schaalbaarheid met modelverbeteringen verhindert. In dit artikel introduceren we A-RAG, een Agentic RAG-framework dat hiërarchische retrieval-interfaces rechtstreeks aan het model blootstelt. A-RAG biedt drie retrieval-tools: zoeken op trefwoord, semantisch zoeken en het lezen van chunks, waardoor de agent adaptief informatie kan zoeken en ophalen over meerdere granulariteiten heen. Experimenten op meerdere open-domein QA-benchmarks tonen aan dat A-RAG consequent beter presteert dan bestaande benaderingen met vergelijkbare of minder opgehaalde tokens, wat aantoont dat A-RAG modelcapaciteiten effectief benut en zich dynamisch aanpast aan verschillende RAG-taken. Verder bestuderen we systematisch hoe A-RAG schaalt met modelgrootte en rekentijd tijdens testen. Wij zullen onze code en evaluatiesuite vrijgeven om toekomstig onderzoek te vergemakkelijken. Code en evaluatiesuite zijn beschikbaar op https://github.com/Ayanami0730/arag.
English
Frontier language models have demonstrated strong reasoning and long-horizon tool-use capabilities. However, existing RAG systems fail to leverage these capabilities. They still rely on two paradigms: (1) designing an algorithm that retrieves passages in a single shot and concatenates them into the model's input, or (2) predefining a workflow and prompting the model to execute it step-by-step. Neither paradigm allows the model to participate in retrieval decisions, preventing efficient scaling with model improvements. In this paper, we introduce A-RAG, an Agentic RAG framework that exposes hierarchical retrieval interfaces directly to the model. A-RAG provides three retrieval tools: keyword search, semantic search, and chunk read, enabling the agent to adaptively search and retrieve information across multiple granularities. Experiments on multiple open-domain QA benchmarks show that A-RAG consistently outperforms existing approaches with comparable or lower retrieved tokens, demonstrating that A-RAG effectively leverages model capabilities and dynamically adapts to different RAG tasks. We further systematically study how A-RAG scales with model size and test-time compute. We will release our code and evaluation suite to facilitate future research. Code and evaluation suite are available at https://github.com/Ayanami0730/arag.
PDF171February 6, 2026