ChatPaper.aiChatPaper

Vérité ou Mirage ? Vers une Évaluation de la Factualité de Bout en Bout avec LLM-OASIS

Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-OASIS

November 29, 2024
Auteurs: Alessandro Scirè, Andrei Stefan Bejgu, Simone Tedeschi, Karim Ghonim, Federico Martelli, Roberto Navigli
cs.AI

Résumé

Après l'introduction des Grands Modèles de Langage (GML), il y a eu des améliorations substantielles dans les performances des tâches de Génération de Langage Naturel (GLN), y compris la Résumé de Texte et la Traduction Automatique. Cependant, les GML produisent toujours des sorties contenant des hallucinations, c'est-à-dire du contenu non ancré dans des informations factuelles. Par conséquent, le développement de méthodes pour évaluer la factualité des GML est devenu urgent. En effet, des ressources pour l'évaluation de la factualité ont récemment émergé. Bien que difficiles, ces ressources présentent une ou plusieurs des limitations suivantes : (i) elles sont adaptées à une tâche ou un domaine spécifique ; (ii) elles sont limitées en taille, empêchant ainsi la formation de nouveaux évaluateurs de factualité ; (iii) elles sont conçues pour des tâches de vérification plus simples, telles que la vérification des affirmations. Pour résoudre ces problèmes, nous présentons LLM-Oasis, à notre connaissance la plus grande ressource pour former des évaluateurs de factualité de bout en bout. LLM-Oasis est construit en extrayant des affirmations de Wikipédia, en falsifiant un sous-ensemble de ces affirmations, et en générant des paires de textes factuels et non factuels. Nous nous appuyons ensuite sur des annotateurs humains pour à la fois valider la qualité de notre ensemble de données et créer un ensemble de tests de référence de qualité pour les systèmes d'évaluation de la factualité. Nos expériences démontrent que LLM-Oasis représente un défi significatif pour les GML de pointe, GPT-4o atteignant jusqu'à 60 % de précision dans notre tâche d'évaluation de la factualité de bout en bout proposée, mettant en évidence son potentiel pour stimuler la recherche future dans le domaine.
English
After the introduction of Large Language Models (LLMs), there have been substantial improvements in the performance of Natural Language Generation (NLG) tasks, including Text Summarization and Machine Translation. However, LLMs still produce outputs containing hallucinations, that is, content not grounded in factual information. Therefore, developing methods to assess the factuality of LLMs has become urgent. Indeed, resources for factuality evaluation have recently emerged. Although challenging, these resources face one or more of the following limitations: (i) they are tailored to a specific task or domain; (ii) they are limited in size, thereby preventing the training of new factuality evaluators; (iii) they are designed for simpler verification tasks, such as claim verification. To address these issues, we introduce LLM-Oasis, to the best of our knowledge the largest resource for training end-to-end factuality evaluators. LLM-Oasis is constructed by extracting claims from Wikipedia, falsifying a subset of these claims, and generating pairs of factual and unfactual texts. We then rely on human annotators to both validate the quality of our dataset and to create a gold standard test set for benchmarking factuality evaluation systems. Our experiments demonstrate that LLM-Oasis presents a significant challenge for state-of-the-art LLMs, with GPT-4o achieving up to 60% accuracy in our proposed end-to-end factuality evaluation task, highlighting its potential to drive future research in the field.

Summary

AI-Generated Summary

PDF202December 4, 2024