ChatPaper.aiChatPaper

De RAGs a parámetros ricos: Explorando cómo los modelos de lenguaje utilizan conocimiento externo frente a información paramétrica para consultas factuales

From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

June 18, 2024
Autores: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI

Resumen

La Generación Aumentada por Recuperación (RAG, por sus siglas en inglés) enriquece la capacidad de los modelos de lenguaje para razonar utilizando contexto externo con el fin de mejorar las respuestas a una consulta del usuario. Este enfoque ha ganado popularidad debido a sus aplicaciones prácticas en diversos usos de modelos de lenguaje, como búsquedas, sistemas de preguntas y respuestas, y chatbots. Sin embargo, la naturaleza exacta de cómo funciona este enfoque no se comprende claramente. En este artículo, examinamos de manera mecanicista la pipeline de RAG para destacar que los modelos de lenguaje toman atajos y tienen una fuerte tendencia a utilizar únicamente la información del contexto para responder a la pregunta, mientras que dependen mínimamente de su memoria paramétrica. Investigamos este comportamiento mecanicista en los modelos de lenguaje mediante: (i) Análisis de Mediación Causal para demostrar que la memoria paramétrica se utiliza mínimamente al responder una pregunta, y (ii) Contribuciones de Atención y Knockouts para mostrar que el flujo residual del último token no se enriquece a partir del token del sujeto en la pregunta, sino que se enriquece a partir de otros tokens informativos en el contexto. Encontramos que este comportamiento de atajo es pronunciado tanto en los modelos de la familia LLaMa como en los de la familia Phi.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models to reason using external context to augment responses for a given user prompt. This approach has risen in popularity due to practical applications in various applications of language models in search, question/answering, and chat-bots. However, the exact nature of how this approach works isn't clearly understood. In this paper, we mechanistically examine the RAG pipeline to highlight that language models take shortcut and have a strong bias towards utilizing only the context information to answer the question, while relying minimally on their parametric memory. We probe this mechanistic behavior in language models with: (i) Causal Mediation Analysis to show that the parametric memory is minimally utilized when answering a question and (ii) Attention Contributions and Knockouts to show that the last token residual stream do not get enriched from the subject token in the question, but gets enriched from other informative tokens in the context. We find this pronounced shortcut behaviour true across both LLaMa and Phi family of models.

Summary

AI-Generated Summary

PDF212December 4, 2024