ChatPaper.aiChatPaper

Medición y Mejora de la Confianza de los LLM en RAG a través de Atribuciones Fundamentadas y Aprendizaje para Rechazar

Measuring and Enhancing Trustworthiness of LLMs in RAG through Grounded Attributions and Learning to Refuse

September 17, 2024
Autores: Maojia Song, Shang Hong Sim, Rishabh Bhardwaj, Hai Leong Chieu, Navonil Majumder, Soujanya Poria
cs.AI

Resumen

Los LLMs son una parte integral de los sistemas de generación aumentada por recuperación (RAG). Mientras que muchos estudios se centran en evaluar la calidad de los sistemas RAG de extremo a extremo, hay una falta de investigación sobre la comprensión de la adecuación de un LLM para la tarea RAG. Por lo tanto, presentamos una nueva métrica, Puntuación de Confianza, que proporciona una evaluación holística de la confiabilidad de los LLMs en un marco RAG. Mostramos que varios métodos de estimulación, como el aprendizaje en contexto, no logran adaptar los LLMs de manera efectiva a la tarea RAG. Por lo tanto, proponemos Trust-Align, un marco para alinear los LLMs para obtener una Puntuación de Confianza más alta. LLaMA-3-8b, alineado con nuestro método, supera significativamente a los LLMs de código abierto de tamaños comparables en ASQA (hasta 10.7), QAMPARI (hasta 29.2) y ELI5 (hasta 14.9). Publicamos nuestro código en: https://github.com/declare-lab/trust-align.
English
LLMs are an integral part of retrieval-augmented generation (RAG) systems. While many studies focus on evaluating the quality of end-to-end RAG systems, there is a lack of research on understanding the appropriateness of an LLM for the RAG task. Thus, we introduce a new metric, Trust-Score, that provides a holistic evaluation of the trustworthiness of LLMs in an RAG framework. We show that various prompting methods, such as in-context learning, fail to adapt LLMs effectively to the RAG task. Thus, we propose Trust-Align, a framework to align LLMs for higher Trust-Score. LLaMA-3-8b, aligned with our method, significantly outperforms open-source LLMs of comparable sizes on ASQA (up 10.7), QAMPARI (up 29.2) and ELI5 (up 14.9). We release our code at: https://github.com/declare-lab/trust-align.

Summary

AI-Generated Summary

PDF72November 16, 2024