ChatPaper.aiChatPaper

A-RAG: Skalierung agentenbasierter retrieval-augmentierter Generierung durch hierarchische Retrieval-Schnittstellen

A-RAG: Scaling Agentic Retrieval-Augmented Generation via Hierarchical Retrieval Interfaces

February 3, 2026
papers.authors: Mingxuan Du, Benfeng Xu, Chiwei Zhu, Shaohan Wang, Pengyu Wang, Xiaorui Wang, Zhendong Mao
cs.AI

papers.abstract

Fortschrittliche Sprachmodelle haben beeindruckende Fähigkeiten im logischen Denken und bei der langfristigen Werkzeugnutzung demonstriert. Bestehende RAG-Systeme (Retrieval-Augmented Generation) nutzen diese Fähigkeiten jedoch nicht aus. Sie stützen sich nach wie vor auf zwei Paradigmen: (1) die Entwicklung eines Algorithmus, der Passagen in einem einzigen Schritt abruft und sie zur Modelleingabe zusammenfügt, oder (2) die vorherige Definition eines Arbeitsablaufs, den das Modell schrittweise ausführt. Keines dieser Paradigmen ermöglicht es dem Modell, an Retrieval-Entscheidungen teilzunehmen, was eine effiziente Skalierung mit Modellverbesserungen verhindert. In diesem Artikel stellen wir A-RAG vor, ein agentenbasiertes RAG-Framework, das dem Modell hierarchische Retrieval-Schnittstellen direkt zugänglich macht. A-RAG bietet drei Retrieval-Werkzeuge: Keywordsuche, semantische Suche und das Lesen von Textabschnitten, die es dem Agenten ermöglichen, adaptiv nach Informationen über mehrere Granularitätsebenen hinweg zu suchen und diese abzurufen. Experimente mit mehreren Open-Domain-QA-Benchmarks zeigen, dass A-RAG bestehende Ansätze durchweg übertrifft, bei vergleichbarer oder geringerer Anzahl abgerufener Tokens. Dies demonstriert, dass A-RAG Modellfähigkeiten effektiv nutzt und sich dynamisch an verschiedene RAG-Aufgaben anpasst. Wir untersuchen des Weiteren systematisch, wie A-RAG mit der Modellgröße und Rechenleistung während der Testphase skaliert. Unser Code und der Evaluierungsdatensatz werden zur Verfügung gestellt, um zukünftige Forschung zu unterstützen. Code und Evaluierungsdatensatz sind verfügbar unter https://github.com/Ayanami0730/arag.
English
Frontier language models have demonstrated strong reasoning and long-horizon tool-use capabilities. However, existing RAG systems fail to leverage these capabilities. They still rely on two paradigms: (1) designing an algorithm that retrieves passages in a single shot and concatenates them into the model's input, or (2) predefining a workflow and prompting the model to execute it step-by-step. Neither paradigm allows the model to participate in retrieval decisions, preventing efficient scaling with model improvements. In this paper, we introduce A-RAG, an Agentic RAG framework that exposes hierarchical retrieval interfaces directly to the model. A-RAG provides three retrieval tools: keyword search, semantic search, and chunk read, enabling the agent to adaptively search and retrieve information across multiple granularities. Experiments on multiple open-domain QA benchmarks show that A-RAG consistently outperforms existing approaches with comparable or lower retrieved tokens, demonstrating that A-RAG effectively leverages model capabilities and dynamically adapts to different RAG tasks. We further systematically study how A-RAG scales with model size and test-time compute. We will release our code and evaluation suite to facilitate future research. Code and evaluation suite are available at https://github.com/Ayanami0730/arag.
PDF171February 6, 2026