Адаптивный RAG, независимый от LLM: Пусть вопрос говорит сам за себя
LLM-Independent Adaptive RAG: Let the Question Speak for Itself
May 7, 2025
Авторы: Maria Marina, Nikolay Ivanov, Sergey Pletenev, Mikhail Salnikov, Daria Galimzianova, Nikita Krayko, Vasily Konovalov, Alexander Panchenko, Viktor Moskvoretskii
cs.AI
Аннотация
Крупные языковые модели (LLM) склонны к галлюцинациям, и подход Retrieval-Augmented Generation (RAG) помогает смягчить эту проблему, однако требует значительных вычислительных ресурсов и может приводить к распространению недостоверной информации. Адаптивное извлечение данных направлено на поиск информации только в случае необходимости, но существующие методы основываются на оценке неопределенности с использованием LLM, что остается неэффективным и непрактичным. В данном исследовании мы представляем легковесные методы адаптивного извлечения, независимые от LLM и основанные на внешней информации. Мы изучили 27 признаков, объединенных в 7 групп, и их гибридные комбинации. Эти методы были протестированы на 6 наборах данных для вопросно-ответных систем (QA) с оценкой их производительности и эффективности. Результаты показывают, что наш подход сопоставим по производительности с более сложными методами на основе LLM, при этом обеспечивая значительное повышение эффективности, что демонстрирует потенциал использования внешней информации для адаптивного извлечения данных.
English
Large Language Models~(LLMs) are prone to hallucinations, and
Retrieval-Augmented Generation (RAG) helps mitigate this, but at a high
computational cost while risking misinformation. Adaptive retrieval aims to
retrieve only when necessary, but existing approaches rely on LLM-based
uncertainty estimation, which remain inefficient and impractical. In this
study, we introduce lightweight LLM-independent adaptive retrieval methods
based on external information. We investigated 27 features, organized into 7
groups, and their hybrid combinations. We evaluated these methods on 6 QA
datasets, assessing the QA performance and efficiency. The results show that
our approach matches the performance of complex LLM-based methods while
achieving significant efficiency gains, demonstrating the potential of external
information for adaptive retrieval.Summary
AI-Generated Summary