ChatPaper.aiChatPaper

Cuándo Hablar, Cuándo Abstenerse: Decodificación Contrastiva con Abstención

When to Speak, When to Abstain: Contrastive Decoding with Abstention

December 17, 2024
Autores: Hyuhng Joon Kim, Youna Kim, Sang-goo Lee, Taeuk Kim
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLMs) demuestran un rendimiento excepcional en diversas tareas al aprovechar tanto el conocimiento pre-entrenado (es decir, conocimiento paramétrico) como el conocimiento externo (es decir, conocimiento contextual). Aunque se han realizado esfuerzos sustanciales para aprovechar ambas formas de conocimiento, los escenarios en los que el modelo carece de conocimiento relevante siguen siendo poco explorados. Estas limitaciones pueden resultar en problemas como la alucinación, lo que provoca una menor fiabilidad y posibles riesgos en aplicaciones críticas. Para abordar tales limitaciones, este documento amplía el alcance de la tarea para abarcar casos en los que la solicitud del usuario no se puede cumplir debido a la falta de conocimiento relevante. Con este fin, presentamos la Decodificación Contrastiva con Abstención (CDA), un método de decodificación sin entrenamiento que capacita a los LLMs para generar respuestas cuando hay conocimiento relevante disponible y para abstenerse en caso contrario. CDA evalúa la relevancia de cada conocimiento para una consulta dada, determinando de manera adaptativa qué conocimiento priorizar o cuál ignorar por completo. Experimentos extensos con cuatro LLMs en tres conjuntos de datos de preguntas y respuestas demuestran que CDA puede realizar de manera efectiva la generación precisa y la abstención simultáneamente. Estos hallazgos resaltan el potencial de CDA para ampliar la aplicabilidad de los LLMs, mejorando la fiabilidad y preservando la confianza del usuario.
English
Large Language Models (LLMs) demonstrate exceptional performance across diverse tasks by leveraging both pre-trained knowledge (i.e., parametric knowledge) and external knowledge (i.e., contextual knowledge). While substantial efforts have been made to leverage both forms of knowledge, scenarios in which the model lacks any relevant knowledge remain underexplored. Such limitations can result in issues like hallucination, causing reduced reliability and potential risks in high-stakes applications. To address such limitations, this paper extends the task scope to encompass cases where the user's request cannot be fulfilled due to the lack of relevant knowledge. To this end, we introduce Contrastive Decoding with Abstention (CDA), a training-free decoding method that empowers LLMs to generate responses when relevant knowledge is available and to abstain otherwise. CDA evaluates the relevance of each knowledge for a given query, adaptively determining which knowledge to prioritize or which to completely ignore. Extensive experiments with four LLMs on three question-answering datasets demonstrate that CDA can effectively perform accurate generation and abstention simultaneously. These findings highlight CDA's potential to broaden the applicability of LLMs, enhancing reliability and preserving user trust.

Summary

AI-Generated Summary

PDF42December 18, 2024