ChatPaper.aiChatPaper

De RAGs a parâmetros ricos: Investigando como os modelos de linguagem utilizam conhecimento externo em relação à informação paramétrica para consultas factuais

From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries

June 18, 2024
Autores: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI

Resumo

A Geração Aumentada por Recuperação (RAG, do inglês *Retrieval Augmented Generation*) aprimora a capacidade dos modelos de linguagem de raciocinar utilizando contexto externo para enriquecer as respostas a um prompt do usuário. Essa abordagem ganhou popularidade devido a aplicações práticas em diversos usos de modelos de linguagem, como em buscas, sistemas de perguntas e respostas e chatbots. No entanto, a natureza exata de como essa abordagem funciona ainda não é claramente compreendida. Neste artigo, examinamos mecanicamente o pipeline do RAG para destacar que os modelos de linguagem tomam atalhos e têm uma forte tendência a utilizar apenas as informações de contexto para responder à pergunta, dependendo minimamente de sua memória paramétrica. Investigamos esse comportamento mecanicista nos modelos de linguagem com: (i) Análise de Mediação Causal, para mostrar que a memória paramétrica é minimamente utilizada ao responder a uma pergunta, e (ii) Contribuições de Atenção e *Knockouts*, para demonstrar que o fluxo residual do último token não é enriquecido pelo token do assunto na pergunta, mas sim por outros tokens informativos no contexto. Constatamos que esse comportamento de atalho é pronunciado tanto nos modelos da família LLaMa quanto na família Phi.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models to reason using external context to augment responses for a given user prompt. This approach has risen in popularity due to practical applications in various applications of language models in search, question/answering, and chat-bots. However, the exact nature of how this approach works isn't clearly understood. In this paper, we mechanistically examine the RAG pipeline to highlight that language models take shortcut and have a strong bias towards utilizing only the context information to answer the question, while relying minimally on their parametric memory. We probe this mechanistic behavior in language models with: (i) Causal Mediation Analysis to show that the parametric memory is minimally utilized when answering a question and (ii) Attention Contributions and Knockouts to show that the last token residual stream do not get enriched from the subject token in the question, but gets enriched from other informative tokens in the context. We find this pronounced shortcut behaviour true across both LLaMa and Phi family of models.
PDF212December 4, 2024