A-RAG: 階層的検索インターフェースによるエージェント型検索拡張生成のスケーリング
A-RAG: Scaling Agentic Retrieval-Augmented Generation via Hierarchical Retrieval Interfaces
February 3, 2026
著者: Mingxuan Du, Benfeng Xu, Chiwei Zhu, Shaohan Wang, Pengyu Wang, Xiaorui Wang, Zhendong Mao
cs.AI
要旨
最先端の大規模言語モデルは、高度な推論能力と長期的なツール利用能力を示している。しかし、既存のRAGシステムはこれらの能力を十分に活用できていない。現在も以下の2つのパラダイムに依存している:(1) 単一ステップで関連文書を検索し、それらをモデル入力に連結するアルゴリズムを設計する方法、(2) 事前にワークフローを定義し、モデルに段階的に実行させるよう促す方法。いずれのパラダイムもモデルが検索判断に関与することを許さず、モデル改良に伴う効率的なスケーリングを阻害している。本論文では、階層的な検索インターフェースをモデルに直接開放するエージェント型RAGフレームワーク「A-RAG」を提案する。A-RAGはキーワード検索、セマンティック検索、チャンク読み取りの3つの検索ツールを提供し、エージェントが複数の粒度で適応的に情報を検索・取得することを可能にする。複数のオープンドメインQAベンチマークによる実験では、A-RAGが同等あるいは少ない検索トークン量で既存手法を一貫して上回り、モデル能力を効果的に活用し、様々なRAGタスクに動的に適応することを実証した。さらに、モデルサイズとテスト時計算量に対するA-RAGのスケーリング特性を系統的に検証する。将来の研究促進のため、コードと評価スイートを公開する。コードと評価スイートはhttps://github.com/Ayanami0730/arag で入手可能。
English
Frontier language models have demonstrated strong reasoning and long-horizon tool-use capabilities. However, existing RAG systems fail to leverage these capabilities. They still rely on two paradigms: (1) designing an algorithm that retrieves passages in a single shot and concatenates them into the model's input, or (2) predefining a workflow and prompting the model to execute it step-by-step. Neither paradigm allows the model to participate in retrieval decisions, preventing efficient scaling with model improvements. In this paper, we introduce A-RAG, an Agentic RAG framework that exposes hierarchical retrieval interfaces directly to the model. A-RAG provides three retrieval tools: keyword search, semantic search, and chunk read, enabling the agent to adaptively search and retrieve information across multiple granularities. Experiments on multiple open-domain QA benchmarks show that A-RAG consistently outperforms existing approaches with comparable or lower retrieved tokens, demonstrating that A-RAG effectively leverages model capabilities and dynamically adapts to different RAG tasks. We further systematically study how A-RAG scales with model size and test-time compute. We will release our code and evaluation suite to facilitate future research. Code and evaluation suite are available at https://github.com/Ayanami0730/arag.