ChatPaper.aiChatPaper

検索せずにナビゲート:企業知識をナビゲーション可能なエージェントスキルに蒸留し、QAとRAGを実現する

Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG

April 16, 2026
著者: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI

要旨

検索拡張生成(RAG)は大規模言語モデル(LLM)の応答を外部エビデンスに基づかせるが、モデルを検索結果の受動的消費者として扱う。すなわち、コーパスの構造や未検索の情報を認識できないため、バックトラックや分散したエビデンスの統合が制限される。本論文ではCorpus2Skillを提案する。これは文書コーパスをオフラインで階層的なスキルディレクトリに蒸留し、LLMエージェントが実行時にこれを探索できるようにするものである。コンパイルパイプラインは文書の反復的クラスタリング、各階層でのLLM要約生成を実行し、探索可能なスキルファイルのツリーとして結果を具現化する。実行時には、エージェントはコーパスの全体像を把握し、粒度を段階的に細かくした要約を通じてトピック分支を掘り下げ、IDによる全文書検索を行う。階層構造が明示的に可視化されるため、エージェントは探索対象の論理的判断、非生産的経路からの撤退、分支を跨ぐエビデンスの統合が可能となる。RAGの企業カスタマーサポートベンチマークであるWixQAにおいて、Corpus2Skillは密ベクトル検索、RAPTOR、エージェント型RAGベースラインを全ての品質指標で上回った。
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.
PDF41April 18, 2026