Von RAGs zu reichen Parametern: Untersuchung, wie Sprachmodelle externes Wissen gegenüber parametrischen Informationen für faktische Anfragen nutzen.
From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries
June 18, 2024
Autoren: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI
Zusammenfassung
Die Retrieval Augmented Generation (RAG) verbessert die Fähigkeit von Sprachmodellen, mithilfe externer Kontexte zu argumentieren, um Antworten auf eine bestimmte Benutzeranfrage zu erweitern. Dieser Ansatz hat aufgrund praktischer Anwendungen in verschiedenen Bereichen wie der Suche, Fragebeantwortung und Chatbots an Popularität gewonnen. Allerdings ist die genaue Funktionsweise dieses Ansatzes nicht klar verstanden. In diesem Artikel untersuchen wir mechanistisch den RAG-Pipeline, um hervorzuheben, dass Sprachmodelle Abkürzungen nehmen und stark dazu neigen, nur die Kontextinformationen zu nutzen, um die Frage zu beantworten, wobei sie minimal auf ihr parametrisches Gedächtnis angewiesen sind. Wir untersuchen dieses mechanistische Verhalten in Sprachmodellen mit: (i) Kausaler Mediationsanalyse, um zu zeigen, dass das parametrische Gedächtnis minimal genutzt wird, wenn eine Frage beantwortet wird, und (ii) Aufmerksamkeitsbeiträgen und Ausschaltungen, um zu zeigen, dass der Reststrom des letzten Tokens nicht aus dem Subjekt-Token in der Frage angereichert wird, sondern aus anderen informativen Tokens im Kontext. Wir stellen fest, dass dieses ausgeprägte Abkürzungsverhalten sowohl bei LLaMa- als auch bei Phi-Modellen zutrifft.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models
to reason using external context to augment responses for a given user prompt.
This approach has risen in popularity due to practical applications in various
applications of language models in search, question/answering, and chat-bots.
However, the exact nature of how this approach works isn't clearly understood.
In this paper, we mechanistically examine the RAG pipeline to highlight that
language models take shortcut and have a strong bias towards utilizing only the
context information to answer the question, while relying minimally on their
parametric memory. We probe this mechanistic behavior in language models with:
(i) Causal Mediation Analysis to show that the parametric memory is minimally
utilized when answering a question and (ii) Attention Contributions and
Knockouts to show that the last token residual stream do not get enriched from
the subject token in the question, but gets enriched from other informative
tokens in the context. We find this pronounced shortcut behaviour true across
both LLaMa and Phi family of models.Summary
AI-Generated Summary