ChatPaper.aiChatPaper

От RAG до богатых параметров: Исследование того, как языковые модели используют внешние знания вместо параметрической информации для фактических запросов.

From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

June 18, 2024
Авторы: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI

Аннотация

Модель Retrieval Augmented Generation (RAG) обогащает способность языковых моделей к рассуждениям с использованием внешнего контекста для улучшения ответов на запросы пользователя. Этот подход стал популярным благодаря его практическому применению в различных областях, включая поиск, вопросно-ответные системы и чат-ботов. Однако точная природа работы этого подхода пока не до конца понятна. В данной статье мы механистически исследуем конвейер RAG, чтобы подчеркнуть, что языковые модели используют явный путь и имеют сильное предвзятое отношение к использованию только контекстной информации для ответа на вопрос, минимально полагаясь на их параметрическую память. Мы исследуем это механистическое поведение языковых моделей с помощью: (i) анализа причинно-следственных связей для показа, что параметрическая память используется минимально при ответе на вопрос, и (ii) вкладов внимания и исключений, чтобы показать, что поток остаточных токенов последнего токена не обогащается от токена-субъекта в вопросе, а обогащается от других информативных токенов в контексте. Мы обнаружили, что это выраженное поведение явного пути верно как для моделей семейства LLaMa, так и для семейства моделей Phi.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models to reason using external context to augment responses for a given user prompt. This approach has risen in popularity due to practical applications in various applications of language models in search, question/answering, and chat-bots. However, the exact nature of how this approach works isn't clearly understood. In this paper, we mechanistically examine the RAG pipeline to highlight that language models take shortcut and have a strong bias towards utilizing only the context information to answer the question, while relying minimally on their parametric memory. We probe this mechanistic behavior in language models with: (i) Causal Mediation Analysis to show that the parametric memory is minimally utilized when answering a question and (ii) Attention Contributions and Knockouts to show that the last token residual stream do not get enriched from the subject token in the question, but gets enriched from other informative tokens in the context. We find this pronounced shortcut behaviour true across both LLaMa and Phi family of models.

Summary

AI-Generated Summary

PDF212December 4, 2024