ChatPaper.aiChatPaper

Des RAGs aux paramètres riches : Exploration de la manière dont les modèles de langage exploitent les connaissances externes par rapport aux informations paramétriques pour les requêtes factuelles

From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

June 18, 2024
Auteurs: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI

Résumé

La Génération Augmentée par Récupération (Retrieval Augmented Generation, RAG) enrichit la capacité des modèles de langage à raisonner en utilisant un contexte externe pour améliorer les réponses à une requête utilisateur donnée. Cette approche a gagné en popularité grâce à ses applications pratiques dans divers domaines des modèles de langage, tels que la recherche, les systèmes de questions/réponses et les chatbots. Cependant, la nature exacte de son fonctionnement n'est pas clairement comprise. Dans cet article, nous examinons de manière mécaniste le pipeline RAG pour mettre en évidence que les modèles de langage prennent des raccourcis et présentent un biais marqué vers l'utilisation exclusive des informations contextuelles pour répondre à la question, tout en s'appuyant minimalement sur leur mémoire paramétrique. Nous explorons ce comportement mécaniste dans les modèles de langage à l'aide de : (i) l'Analyse de Médiation Causale pour montrer que la mémoire paramétrique est peu utilisée lors de la réponse à une question, et (ii) les Contributions d'Attention et les Knockouts pour montrer que le flux résiduel du dernier token ne s'enrichit pas à partir du token sujet dans la question, mais plutôt à partir d'autres tokens informatifs dans le contexte. Nous constatons que ce comportement de raccourci prononcé est vrai à la fois pour les familles de modèles LLaMa et Phi.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models to reason using external context to augment responses for a given user prompt. This approach has risen in popularity due to practical applications in various applications of language models in search, question/answering, and chat-bots. However, the exact nature of how this approach works isn't clearly understood. In this paper, we mechanistically examine the RAG pipeline to highlight that language models take shortcut and have a strong bias towards utilizing only the context information to answer the question, while relying minimally on their parametric memory. We probe this mechanistic behavior in language models with: (i) Causal Mediation Analysis to show that the parametric memory is minimally utilized when answering a question and (ii) Attention Contributions and Knockouts to show that the last token residual stream do not get enriched from the subject token in the question, but gets enriched from other informative tokens in the context. We find this pronounced shortcut behaviour true across both LLaMa and Phi family of models.

Summary

AI-Generated Summary

PDF212December 4, 2024