DeCoRe: Decodificación mediante la Contraposición de Cabezas de Recuperación para Mitigar las Alucinaciones
DeCoRe: Decoding by Contrasting Retrieval Heads to Mitigate Hallucinations
October 24, 2024
Autores: Aryo Pradipta Gema, Chen Jin, Ahmed Abdulaal, Tom Diethe, Philip Teare, Beatrice Alex, Pasquale Minervini, Amrutha Saseendran
cs.AI
Resumen
Los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés) a menudo alucinan, produciendo salidas no fieles o incorrectas desde el punto de vista factual al distorsionar el contexto proporcionado o recordar de forma incorrecta el conocimiento interno. Estudios recientes han identificado cabezas de atención específicas dentro de la arquitectura Transformer, conocidas como cabezas de recuperación, responsables de extraer información contextual relevante. Hipotetizamos que al enmascarar estas cabezas de recuperación se pueden inducir alucinaciones y que contrastar las salidas del LLM base y el LLM enmascarado puede reducir las alucinaciones. Con este fin, proponemos Decodificación por Contraste de Cabezas de Recuperación (DeCoRe), una novedosa estrategia de decodificación sin entrenamiento que amplifica la información encontrada en el contexto y los parámetros del modelo. DeCoRe mitiga las respuestas potencialmente alucinadas al contrastar dinámicamente las salidas del LLM base y el LLM enmascarado, utilizando la entropía condicional como guía. Nuestros extensos experimentos confirman que DeCoRe mejora significativamente el rendimiento en tareas que requieren una alta fidelidad contextual, como la sumarización (XSum en un 18.6%), el seguimiento de instrucciones (MemoTrap en un 10.9%), y la respuesta a preguntas de libro abierto (NQ-Open en un 2.4% y NQ-Swap en un 5.5%).
English
Large Language Models (LLMs) often hallucinate, producing unfaithful or
factually incorrect outputs by misrepresenting the provided context or
incorrectly recalling internal knowledge. Recent studies have identified
specific attention heads within the Transformer architecture, known as
retrieval heads, responsible for extracting relevant contextual information. We
hypothesise that masking these retrieval heads can induce hallucinations and
that contrasting the outputs of the base LLM and the masked LLM can reduce
hallucinations. To this end, we propose Decoding by Contrasting Retrieval Heads
(DeCoRe), a novel training-free decoding strategy that amplifies information
found in the context and model parameters. DeCoRe mitigates potentially
hallucinated responses by dynamically contrasting the outputs of the base LLM
and the masked LLM, using conditional entropy as a guide. Our extensive
experiments confirm that DeCoRe significantly improves performance on tasks
requiring high contextual faithfulness, such as summarisation (XSum by 18.6%),
instruction following (MemoTrap by 10.9%), and open-book question answering
(NQ-Open by 2.4% and NQ-Swap by 5.5%).Summary
AI-Generated Summary