Не извлекать, а ориентироваться: дистилляция корпоративных знаний в навигационные навыки агентов для вопросно-ответных систем и RAG
Don't Retrieve, Navigate: Distilling Enterprise Knowledge into Navigable Agent Skills for QA and RAG
April 16, 2026
Авторы: Yiqun Sun, Pengfei Wei, Lawrence B. Hsieh
cs.AI
Аннотация
Метод генерации с расширением выборки (RAG) обеспечивает обоснование ответов больших языковых моделей внешними доказательствами, но рассматривает модель как пассивного потребителя результатов поиска: она не видит, как организован корпус документов или что еще не было извлечено, что ограничивает ее способность к возврату или комбинированию разрозненных свидетельств. Мы представляем Corpus2Skill — метод, который офлайн преобразует корпус документов в иерархический каталог навыков и позволяет агенту на основе LLM навигировать по нему во время выполнения. Компиляционный конвейер итеративно кластеризует документы, генерирует написанные LLM сводки на каждом уровне и материализует результат в виде дерева навигируемых файлов навыков. Во время выполнения агент получает общее представление о корпусе, углубляется в тематические ветви через progressively детализированные сводки и извлекает полные документы по идентификатору. Поскольку иерархия явно видима, агент может рассуждать о том, где искать, возвращаться с непродуктивных путей и комбинировать доказательства из разных ветвей. На WixQA, корпоративном бенчмарке службы поддержки для RAG, Corpus2Skill превосходит по всем метрикам качества методы плотного поиска, RAPTOR и агентские RAG-базлины.
English
Retrieval-Augmented Generation (RAG) grounds LLM responses in external evidence but treats the model as a passive consumer of search results: it never sees how the corpus is organized or what it has not yet retrieved, limiting its ability to backtrack or combine scattered evidence. We present Corpus2Skill, which distills a document corpus into a hierarchical skill directory offline and lets an LLM agent navigate it at serve time. The compilation pipeline iteratively clusters documents, generates LLM-written summaries at each level, and materializes the result as a tree of navigable skill files. At serve time, the agent receives a bird's-eye view of the corpus, drills into topic branches via progressively finer summaries, and retrieves full documents by ID. Because the hierarchy is explicitly visible, the agent can reason about where to look, backtrack from unproductive paths, and combine evidence across branches. On WixQA, an enterprise customer-support benchmark for RAG, Corpus2Skill outperforms dense retrieval, RAPTOR, and agentic RAG baselines across all quality metrics.