ChatPaper.aiChatPaper

Niet Ophalen, Maar Navigeren: Het Distilleren van Ondernemingskennis in Navigeerbare Agentvaardigheden voor VQA en RAG

Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG

April 16, 2026
Auteurs: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI

Samenvatting

Retrieval-Augmented Generation (RAG) verankert de reacties van grote taalmodellen (LLM's) in externe bronnen, maar behandelt het model als een passieve consument van zoekresultaten: het ziet nooit hoe de corpus is georganiseerd of wat het nog niet heeft opgehaald, wat zijn vermogen beperkt om terug te spoelen of verspreid bewijs te combineren. Wij presenteren Corpus2Skill, dat offline een documentencorpus destilleert tot een hiërarchische vaardigheidsdirectory en een LLM-agent toestaat hierin tijdens runtime te navigeren. Het compilatieproces clustert iteratief documenten, genereert op elk niveau door een LLM geschreven samenvattingen, en materialiseert het resultaat als een boom van navigeerbare vaardigheidsbestanden. Tijdens runtime krijgt de agent een overzicht op hoofdniveau van de corpus, boort zich via steeds gedetailleerdere samenvattingen in onderwerptakken in, en haalt volledige documenten op via hun ID. Omdat de hiërarchie expliciet zichtbaar is, kan de agent redeneren over waar te zoeken, terugkeren van onproductieve paden en bewijs over verschillende takken combineren. Op WixQA, een enterprise klantenondersteuning-benchmark voor RAG, presteert Corpus2Skill beter dan dense retrieval, RAPTOR en agent-gebaseerde RAG-baselines op alle kwaliteitsmetrieken.
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.
PDF42April 18, 2026