검색하지 말고 탐색하라: 기업 지식을 질의응답 및 RAG를 위한 탐색 가능 에이전트 기술로 정제하기
Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG
April 16, 2026
저자: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI
초록
검색 증대 생성(RAG)은 대규모 언어 모델(LLM)의 응답을 외부 증거에 기반하게 하지만, 모델을 검색 결과의 수동적 소비자로 취급합니다: 이는 말뭉치가 어떻게 구성되어 있는지 또는 아직 검색하지 않은 내용을 전혀 인식하지 못하므로, 역추적하거나 흩어진 증거를 결합하는 능력이 제한됩니다. 우리는 문서 말뭉치를 오프라인에서 계층적 기술 디렉토리로 정제하고, LLM 에이전트가 서비스 시간에 이를 탐색하도록 하는 Corpus2Skill을 제시합니다. 컴파일 파이프라인은 문서를 반복적으로 클러스터링하고, 각 수준에서 LLM이 작성한 요약을 생성하며, 그 결과를 탐색 가능한 기술 파일의 트리로 구체화합니다. 서비스 시간에 에이전트는 말뭉치에 대한 전체 개요를 받고, 점점 더 세분화된 요약을 통해 주제 분기를 심층 탐색하며, ID로 전체 문서를 검색합니다. 계층 구조가 명시적으로 보이기 때문에, 에이전트는 어디를 찾아야 할지 추론하고, 비생산적인 경로에서 역추적하며, 여러 분기에 걸친 증거를 결합할 수 있습니다. RAG를 위한 기업 고객 지원 벤치마크인 WixQA에서 Corpus2Skill은 모든 품질 지표에서 밀집 검색, RAPTOR 및 에이전트형 RAG 기준선을 능가했습니다.
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.