ChatPaper.aiChatPaper

Waarheid of Illusie? Naar End-to-End Evaluatie van Feitelijkheid met LLM-OASIS

Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-OASIS

November 29, 2024
Auteurs: Alessandro Scirè, Andrei Stefan Bejgu, Simone Tedeschi, Karim Ghonim, Federico Martelli, Roberto Navigli
cs.AI

Samenvatting

Na de introductie van Grote Taalmodellen (LLM's) zijn er aanzienlijke verbeteringen opgetreden in de prestaties van taken voor Natuurlijke Taalgeneratie (NLG), waaronder Tekstsamenvatting en Machinale Vertaling. Desalniettemin produceren LLM's nog steeds uitvoer met hallucinaties, dat wil zeggen, inhoud die niet gebaseerd is op feitelijke informatie. Daarom is het dringend noodzakelijk om methoden te ontwikkelen om de feitelijkheid van LLM's te beoordelen. Er zijn inderdaad recentelijk bronnen voor feitelijkheidsevaluatie ontstaan. Hoewel uitdagend, hebben deze bronnen een of meer van de volgende beperkingen: (i) ze zijn afgestemd op een specifieke taak of domein; (ii) ze zijn beperkt in omvang, waardoor het trainen van nieuwe feitelijkheidsevaluatoren wordt belemmerd; (iii) ze zijn ontworpen voor eenvoudigere verificatietaken, zoals claimverificatie. Om deze problemen aan te pakken, introduceren we LLM-Oasis, naar ons beste weten de grootste bron voor het trainen van end-to-end feitelijkheidsevaluatoren. LLM-Oasis is samengesteld door claims uit Wikipedia te extraheren, een subset van deze claims te falsificeren, en paren van feitelijke en onfeitelijke teksten te genereren. Vervolgens vertrouwen we op menselijke annotatoren om zowel de kwaliteit van ons dataset te valideren als een gouden standaard testset te creëren voor het benchmarken van feitelijkheidsevaluatiesystemen. Onze experimenten tonen aan dat LLM-Oasis een aanzienlijke uitdaging vormt voor state-of-the-art LLM's, waarbij GPT-4o tot wel 60% nauwkeurigheid behaalt in onze voorgestelde end-to-end feitelijkheidsevaluatietaak, wat het potentieel benadrukt om toekomstig onderzoek op dit gebied te stimuleren.
English
After the introduction of Large Language Models (LLMs), there have been substantial improvements in the performance of Natural Language Generation (NLG) tasks, including Text Summarization and Machine Translation. However, LLMs still produce outputs containing hallucinations, that is, content not grounded in factual information. Therefore, developing methods to assess the factuality of LLMs has become urgent. Indeed, resources for factuality evaluation have recently emerged. Although challenging, these resources face one or more of the following limitations: (i) they are tailored to a specific task or domain; (ii) they are limited in size, thereby preventing the training of new factuality evaluators; (iii) they are designed for simpler verification tasks, such as claim verification. To address these issues, we introduce LLM-Oasis, to the best of our knowledge the largest resource for training end-to-end factuality evaluators. LLM-Oasis is constructed by extracting claims from Wikipedia, falsifying a subset of these claims, and generating pairs of factual and unfactual texts. We then rely on human annotators to both validate the quality of our dataset and to create a gold standard test set for benchmarking factuality evaluation systems. Our experiments demonstrate that LLM-Oasis presents a significant challenge for state-of-the-art LLMs, with GPT-4o achieving up to 60% accuracy in our proposed end-to-end factuality evaluation task, highlighting its potential to drive future research in the field.
PDF202December 4, 2024