ChatPaper.aiChatPaper

No Recuperes, Navega: Destilando el Conocimiento Empresarial en Habilidades de Agente Navegables para Preguntas y Respuestas y RAG

Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG

April 16, 2026
Autores: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI

Resumen

La Generación Aumentada por Recuperación (RAG) fundamenta las respuestas de los LLM en evidencia externa, pero trata al modelo como un consumidor pasivo de resultados de búsqueda: nunca ve cómo está organizado el corpus o qué información aún no ha recuperado, lo que limita su capacidad para retroceder o combinar evidencia dispersa. Presentamos Corpus2Skill, que destila un corpus de documentos en un directorio jerárquico de habilidades de forma offline y permite que un agente de LLM lo navegue en tiempo de servicio. La pipeline de compilación agrupa documentos iterativamente, genera resúmenes escritos por el LLM en cada nivel y materializa el resultado como un árbol de archivos de habilidades navegables. En tiempo de servicio, el agente recibe una visión general del corpus, profundiza en ramas temáticas mediante resúmenes progresivamente más detallados y recupera documentos completos por ID. Dado que la jerarquía es explícitamente visible, el agente puede razonar sobre dónde buscar, retroceder desde caminos improductivos y combinar evidencia entre ramas. En WixQA, un benchmark empresarial de atención al cliente para RAG, Corpus2Skill supera a la recuperación densa, RAPTOR y líneas base de RAG agentico en todas las métricas de calidad.
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.
PDF41April 18, 2026