ChatPaper.aiChatPaper

Não Recupere, Navegue: Destilando Conhecimento Empresarial em Habilidades de Agente Navegáveis para QA e RAG

Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG

April 16, 2026
Autores: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI

Resumo

A Geração Aumentada por Recuperação (RAG) ancora as respostas de LLMs em evidências externas, mas trata o modelo como um consumidor passivo dos resultados de busca: ele nunca vê como o corpus está organizado ou o que ainda não foi recuperado, limitando sua capacidade de retroceder ou combinar evidências dispersas. Apresentamos o Corpus2Skill, que destila um corpus de documentos em um diretório hierárquico de habilidades offline e permite que um agente de LLM navegue por ele durante o tempo de serviço. O pipeline de compilação agrupa documentos iterativamente, gera resumos escritos por LLM em cada nível e materializa o resultado como uma árvore de arquivos de habilidades navegáveis. No tempo de serviço, o agente recebe uma visão panorâmica do corpus, aprofunda-se em ramos de tópicos por meio de resumos progressivamente mais refinados e recupera documentos completos por ID. Como a hierarquia é explicitamente visível, o agente pode raciocinar sobre onde procurar, retroceder de caminhos improdutivos e combinar evidências entre ramos. No WixQA, um benchmark empresarial de suporte ao cliente para RAG, o Corpus2Skill supera as linhas de base de recuperação densa, RAPTOR e RAG agencial em todas as métricas de qualidade.
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.
PDF42April 18, 2026