ChatPaper.aiChatPaper

Von RAGs zu reichen Parametern: Untersuchung, wie Sprachmodelle externes Wissen gegenüber parametrischen Informationen für faktische Anfragen nutzen.

From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

June 18, 2024
Autoren: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI

Zusammenfassung

Die Retrieval Augmented Generation (RAG) verbessert die Fähigkeit von Sprachmodellen, mithilfe externer Kontexte zu argumentieren, um Antworten auf eine bestimmte Benutzeranfrage zu erweitern. Dieser Ansatz hat aufgrund praktischer Anwendungen in verschiedenen Bereichen wie der Suche, Fragebeantwortung und Chatbots an Popularität gewonnen. Allerdings ist die genaue Funktionsweise dieses Ansatzes nicht klar verstanden. In diesem Artikel untersuchen wir mechanistisch den RAG-Pipeline, um hervorzuheben, dass Sprachmodelle Abkürzungen nehmen und stark dazu neigen, nur die Kontextinformationen zu nutzen, um die Frage zu beantworten, wobei sie minimal auf ihr parametrisches Gedächtnis angewiesen sind. Wir untersuchen dieses mechanistische Verhalten in Sprachmodellen mit: (i) Kausaler Mediationsanalyse, um zu zeigen, dass das parametrische Gedächtnis minimal genutzt wird, wenn eine Frage beantwortet wird, und (ii) Aufmerksamkeitsbeiträgen und Ausschaltungen, um zu zeigen, dass der Reststrom des letzten Tokens nicht aus dem Subjekt-Token in der Frage angereichert wird, sondern aus anderen informativen Tokens im Kontext. Wir stellen fest, dass dieses ausgeprägte Abkürzungsverhalten sowohl bei LLaMa- als auch bei Phi-Modellen zutrifft.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models to reason using external context to augment responses for a given user prompt. This approach has risen in popularity due to practical applications in various applications of language models in search, question/answering, and chat-bots. However, the exact nature of how this approach works isn't clearly understood. In this paper, we mechanistically examine the RAG pipeline to highlight that language models take shortcut and have a strong bias towards utilizing only the context information to answer the question, while relying minimally on their parametric memory. We probe this mechanistic behavior in language models with: (i) Causal Mediation Analysis to show that the parametric memory is minimally utilized when answering a question and (ii) Attention Contributions and Knockouts to show that the last token residual stream do not get enriched from the subject token in the question, but gets enriched from other informative tokens in the context. We find this pronounced shortcut behaviour true across both LLaMa and Phi family of models.

Summary

AI-Generated Summary

PDF212December 4, 2024