ChatPaper.aiChatPaper

A-RAG: 계층적 검색 인터페이스를 통한 에이전트 기반 검색-증강 생성의 확장

A-RAG: Scaling Agentic Retrieval-Augmented Generation via Hierarchical Retrieval Interfaces

February 3, 2026
저자: Mingxuan Du, Benfeng Xu, Chiwei Zhu, Shaohan Wang, Pengyu Wang, Xiaorui Wang, Zhendong Mao
cs.AI

초록

최신 언어 모델은 강력한 추론 능력과 장기적인 도구 사용 능력을 보여주고 있습니다. 그러나 기존 RAG 시스템은 이러한 능력을 충분히 활용하지 못하고 있습니다. 여전히 두 가지 패러다임에 의존하는데, (1) 단일 단계로 문서를 검색하여 모델 입력에 연결하는 알고리즘을 설계하거나, (2) 사전에 워크플로를 정의하고 모델이 단계별로 실행하도록 프롬프팅하는 방식입니다. 두 패러다임 모두 모델이 검색 결정 과정에 참여할 수 없게 하여 모델 성능 향상에 따른 효율적인 확장을 방해합니다. 본 논문에서는 계층적 검색 인터페이스를 모델에 직접 제공하는 에이전트 기반 RAG 프레임워크인 A-RAG를 소개합니다. A-RAG는 키워드 검색, 의미 검색, 청크 읽기라는 세 가지 검색 도구를 제공하여 에이전트가 다양한 세분화 수준에서 적응적으로 정보를 탐색하고 검색할 수 있도록 합니다. 여러 오픈 도메인 질의응답 벤치마크에서의 실험 결과, A-RAG는 유사하거나 더 적은 수의 검색 토큰을 사용하면서도 기존 접근법들을 지속적으로 능가하는 것으로 나타나, A-RAG가 모델의 능력을 효과적으로 활용하고 다양한 RAG 작업에 동적으로 적응함을 입증했습니다. 또한 모델 크기와 테스트 시 연산량에 따른 A-RAG의 확장성을 체계적으로 연구했습니다. 향후 연구를 위해 코드와 평가 도구 세트를 공개할 예정입니다. 코드와 평가 도구 세트는 https://github.com/Ayanami0730/arag에서 확인할 수 있습니다.
English
Frontier language models have demonstrated strong reasoning and long-horizon tool-use capabilities. However, existing RAG systems fail to leverage these capabilities. They still rely on two paradigms: (1) designing an algorithm that retrieves passages in a single shot and concatenates them into the model's input, or (2) predefining a workflow and prompting the model to execute it step-by-step. Neither paradigm allows the model to participate in retrieval decisions, preventing efficient scaling with model improvements. In this paper, we introduce A-RAG, an Agentic RAG framework that exposes hierarchical retrieval interfaces directly to the model. A-RAG provides three retrieval tools: keyword search, semantic search, and chunk read, enabling the agent to adaptively search and retrieve information across multiple granularities. Experiments on multiple open-domain QA benchmarks show that A-RAG consistently outperforms existing approaches with comparable or lower retrieved tokens, demonstrating that A-RAG effectively leverages model capabilities and dynamically adapts to different RAG tasks. We further systematically study how A-RAG scales with model size and test-time compute. We will release our code and evaluation suite to facilitate future research. Code and evaluation suite are available at https://github.com/Ayanami0730/arag.
PDF171February 6, 2026