ChatPaper.aiChatPaper

DeCoRe: Decodificación mediante la Contraposición de Cabezas de Recuperación para Mitigar las Alucinaciones

DeCoRe: Decoding by Contrasting Retrieval Heads to Mitigate Hallucinations

October 24, 2024
Autores: Aryo Pradipta Gema, Chen Jin, Ahmed Abdulaal, Tom Diethe, Philip Teare, Beatrice Alex, Pasquale Minervini, Amrutha Saseendran
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés) a menudo alucinan, produciendo salidas no fieles o incorrectas desde el punto de vista factual al distorsionar el contexto proporcionado o recordar de forma incorrecta el conocimiento interno. Estudios recientes han identificado cabezas de atención específicas dentro de la arquitectura Transformer, conocidas como cabezas de recuperación, responsables de extraer información contextual relevante. Hipotetizamos que al enmascarar estas cabezas de recuperación se pueden inducir alucinaciones y que contrastar las salidas del LLM base y el LLM enmascarado puede reducir las alucinaciones. Con este fin, proponemos Decodificación por Contraste de Cabezas de Recuperación (DeCoRe), una novedosa estrategia de decodificación sin entrenamiento que amplifica la información encontrada en el contexto y los parámetros del modelo. DeCoRe mitiga las respuestas potencialmente alucinadas al contrastar dinámicamente las salidas del LLM base y el LLM enmascarado, utilizando la entropía condicional como guía. Nuestros extensos experimentos confirman que DeCoRe mejora significativamente el rendimiento en tareas que requieren una alta fidelidad contextual, como la sumarización (XSum en un 18.6%), el seguimiento de instrucciones (MemoTrap en un 10.9%), y la respuesta a preguntas de libro abierto (NQ-Open en un 2.4% y NQ-Swap en un 5.5%).
English
Large Language Models (LLMs) often hallucinate, producing unfaithful or factually incorrect outputs by misrepresenting the provided context or incorrectly recalling internal knowledge. Recent studies have identified specific attention heads within the Transformer architecture, known as retrieval heads, responsible for extracting relevant contextual information. We hypothesise that masking these retrieval heads can induce hallucinations and that contrasting the outputs of the base LLM and the masked LLM can reduce hallucinations. To this end, we propose Decoding by Contrasting Retrieval Heads (DeCoRe), a novel training-free decoding strategy that amplifies information found in the context and model parameters. DeCoRe mitigates potentially hallucinated responses by dynamically contrasting the outputs of the base LLM and the masked LLM, using conditional entropy as a guide. Our extensive experiments confirm that DeCoRe significantly improves performance on tasks requiring high contextual faithfulness, such as summarisation (XSum by 18.6%), instruction following (MemoTrap by 10.9%), and open-book question answering (NQ-Open by 2.4% and NQ-Swap by 5.5%).

Summary

AI-Generated Summary

PDF113November 16, 2024