ChatPaper.aiChatPaper

¿Verdad o Espejismo? Hacia la Evaluación de la Factualidad de Extremo a Extremo con LLM-OASIS

Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-OASIS

November 29, 2024
Autores: Alessandro Scirè, Andrei Stefan Bejgu, Simone Tedeschi, Karim Ghonim, Federico Martelli, Roberto Navigli
cs.AI

Resumen

Tras la introducción de los Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés), ha habido mejoras sustanciales en el rendimiento de tareas de Generación de Lenguaje Natural (NLG, por sus siglas en inglés), incluyendo la Sumarización de Texto y la Traducción Automática. Sin embargo, los LLMs todavía producen salidas que contienen alucinaciones, es decir, contenido no fundamentado en información factual. Por lo tanto, desarrollar métodos para evaluar la factualidad de los LLMs se ha vuelto urgente. De hecho, recientemente han surgido recursos para la evaluación de la factualidad. Aunque desafiantes, estos recursos enfrentan una o más de las siguientes limitaciones: (i) están adaptados a una tarea o dominio específico; (ii) son limitados en tamaño, lo que impide el entrenamiento de nuevos evaluadores de factualidad; (iii) están diseñados para tareas de verificación más simples, como la verificación de afirmaciones. Para abordar estos problemas, presentamos LLM-Oasis, hasta donde sabemos, el recurso más grande para entrenar evaluadores de factualidad de extremo a extremo. LLM-Oasis se construye extrayendo afirmaciones de Wikipedia, falsificando un subconjunto de estas afirmaciones y generando pares de textos factuales y no factuales. Luego, confiamos en anotadores humanos para validar la calidad de nuestro conjunto de datos y crear un conjunto de pruebas estándar de oro para evaluar sistemas de evaluación de factualidad. Nuestros experimentos demuestran que LLM-Oasis presenta un desafío significativo para los LLMs de última generación, con GPT-4o logrando hasta un 60% de precisión en nuestra propuesta de tarea de evaluación de factualidad de extremo a extremo, resaltando su potencial para impulsar futuras investigaciones en el campo.
English
After the introduction of Large Language Models (LLMs), there have been substantial improvements in the performance of Natural Language Generation (NLG) tasks, including Text Summarization and Machine Translation. However, LLMs still produce outputs containing hallucinations, that is, content not grounded in factual information. Therefore, developing methods to assess the factuality of LLMs has become urgent. Indeed, resources for factuality evaluation have recently emerged. Although challenging, these resources face one or more of the following limitations: (i) they are tailored to a specific task or domain; (ii) they are limited in size, thereby preventing the training of new factuality evaluators; (iii) they are designed for simpler verification tasks, such as claim verification. To address these issues, we introduce LLM-Oasis, to the best of our knowledge the largest resource for training end-to-end factuality evaluators. LLM-Oasis is constructed by extracting claims from Wikipedia, falsifying a subset of these claims, and generating pairs of factual and unfactual texts. We then rely on human annotators to both validate the quality of our dataset and to create a gold standard test set for benchmarking factuality evaluation systems. Our experiments demonstrate that LLM-Oasis presents a significant challenge for state-of-the-art LLMs, with GPT-4o achieving up to 60% accuracy in our proposed end-to-end factuality evaluation task, highlighting its potential to drive future research in the field.

Summary

AI-Generated Summary

PDF202December 4, 2024