ChatPaper.aiChatPaper

Kein Abruf, sondern Navigation: Destillation von Unternehmenswissen in navigierbare Agenten-Fähigkeiten für QA und RAG

Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG

April 16, 2026
Autoren: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI

Zusammenfassung

Retrieval-Augmented Generation (RAG) verankert die Antworten von LLMs in externen Evidenzen, behandelt das Modell jedoch als passiven Konsumenten von Suchergebnissen: Es erfährt nie, wie das Korpus strukturiert ist oder was es noch nicht abgerufen hat, was seine Fähigkeit einschränkt, zurückzublenden oder verstreute Evidenzen zu kombinieren. Wir stellen Corpus2Skill vor, das einen Dokumentenkorpus offline in ein hierarchisches Skill-Verzeichnis destilliert und es einem LLM-Agenten zur Laufzeit ermöglicht, darin zu navigieren. Die Kompilierungspipeline clustert iterativ Dokumente, generiert auf jeder Ebene von einem LLM verfasste Zusammenfassungen und materialisiert das Ergebnis als einen Baum navigierbarer Skill-Dateien. Zur Laufzeit erhält der Agent einen Überblick über das Korpus, arbeitet sich über immer feinere Zusammenfassungen in Themenbereiche vor und ruft Volltexte anhand ihrer ID ab. Da die Hierarchie explizit sichtbar ist, kann der Agent darüber entscheiden, wo er suchen muss, von unergiebigen Pfaden zurückkehren und Evidenzen über verschiedene Bereiche hinweg kombinieren. Auf WixQA, einem unternehmensbasierten Kundensupport-Benchmark für RAG, übertrifft Corpus2Skill dichte Retrieval-, RAPTOR- und agentenbasierte RAG-Baselines in allen Qualitätsmetriken.
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.
PDF41April 18, 2026