De RAGs a parâmetros ricos: Investigando como os modelos de linguagem utilizam conhecimento externo em relação à informação paramétrica para consultas factuais
From RAGs to rich parameters: Probing how language models utilize external knowledge over parametric information for factual queries
June 18, 2024
Autores: Hitesh Wadhwa, Rahul Seetharaman, Somyaa Aggarwal, Reshmi Ghosh, Samyadeep Basu, Soundararajan Srinivasan, Wenlong Zhao, Shreyas Chaudhari, Ehsan Aghazadeh
cs.AI
Resumo
A Geração Aumentada por Recuperação (RAG, do inglês *Retrieval Augmented Generation*) aprimora a capacidade dos modelos de linguagem de raciocinar utilizando contexto externo para enriquecer as respostas a um prompt do usuário. Essa abordagem ganhou popularidade devido a aplicações práticas em diversos usos de modelos de linguagem, como em buscas, sistemas de perguntas e respostas e chatbots. No entanto, a natureza exata de como essa abordagem funciona ainda não é claramente compreendida. Neste artigo, examinamos mecanicamente o pipeline do RAG para destacar que os modelos de linguagem tomam atalhos e têm uma forte tendência a utilizar apenas as informações de contexto para responder à pergunta, dependendo minimamente de sua memória paramétrica. Investigamos esse comportamento mecanicista nos modelos de linguagem com: (i) Análise de Mediação Causal, para mostrar que a memória paramétrica é minimamente utilizada ao responder a uma pergunta, e (ii) Contribuições de Atenção e *Knockouts*, para demonstrar que o fluxo residual do último token não é enriquecido pelo token do assunto na pergunta, mas sim por outros tokens informativos no contexto. Constatamos que esse comportamento de atalho é pronunciado tanto nos modelos da família LLaMa quanto na família Phi.
English
Retrieval Augmented Generation (RAG) enriches the ability of language models
to reason using external context to augment responses for a given user prompt.
This approach has risen in popularity due to practical applications in various
applications of language models in search, question/answering, and chat-bots.
However, the exact nature of how this approach works isn't clearly understood.
In this paper, we mechanistically examine the RAG pipeline to highlight that
language models take shortcut and have a strong bias towards utilizing only the
context information to answer the question, while relying minimally on their
parametric memory. We probe this mechanistic behavior in language models with:
(i) Causal Mediation Analysis to show that the parametric memory is minimally
utilized when answering a question and (ii) Attention Contributions and
Knockouts to show that the last token residual stream do not get enriched from
the subject token in the question, but gets enriched from other informative
tokens in the context. We find this pronounced shortcut behaviour true across
both LLaMa and Phi family of models.