ChatPaper.aiChatPaper

Правда или Мираж? К Оценке Фактичности от Начала до Конца с LLM-OASIS

Truth or Mirage? Towards End-to-End Factuality Evaluation with LLM-OASIS

November 29, 2024
Авторы: Alessandro Scirè, Andrei Stefan Bejgu, Simone Tedeschi, Karim Ghonim, Federico Martelli, Roberto Navigli
cs.AI

Аннотация

После появления больших языковых моделей (LLM) значительно улучшилась производительность задач генерации естественного языка (NLG), включая резюмирование текста и машинный перевод. Однако LLM по-прежнему создают результаты, содержащие галлюцинации, то есть содержание, не основанное на фактической информации. Поэтому разработка методов оценки фактичности LLM стала насущной задачей. Действительно, недавно появились ресурсы для оценки фактичности. Хотя эти ресурсы представляют собой вызов, они сталкиваются с одним или несколькими из следующих ограничений: (i) они адаптированы к конкретной задаче или области; (ii) их размер ограничен, что мешает обучению новых оценщиков фактичности; (iii) они предназначены для более простых задач верификации, таких как проверка утверждений. Для решения этих проблем мы представляем LLM-Oasis, насколько нам известно, самый крупный ресурс для обучения конечных оценщиков фактичности. LLM-Oasis создан путем извлечения утверждений из Википедии, фальсификации подмножества этих утверждений и генерации пар фактических и нефактических текстов. Затем мы полагаемся на человеческих аннотаторов как для проверки качества нашего набора данных, так и для создания стандартного тестового набора для оценки систем оценки фактичности. Наши эксперименты показывают, что LLM-Oasis представляет собой значительное испытание для современных LLM, причем GPT-4o достигает до 60% точности в предлагаемой нами конечной задаче оценки фактичности, подчеркивая его потенциал для стимулирования будущих исследований в этой области.
English
After the introduction of Large Language Models (LLMs), there have been substantial improvements in the performance of Natural Language Generation (NLG) tasks, including Text Summarization and Machine Translation. However, LLMs still produce outputs containing hallucinations, that is, content not grounded in factual information. Therefore, developing methods to assess the factuality of LLMs has become urgent. Indeed, resources for factuality evaluation have recently emerged. Although challenging, these resources face one or more of the following limitations: (i) they are tailored to a specific task or domain; (ii) they are limited in size, thereby preventing the training of new factuality evaluators; (iii) they are designed for simpler verification tasks, such as claim verification. To address these issues, we introduce LLM-Oasis, to the best of our knowledge the largest resource for training end-to-end factuality evaluators. LLM-Oasis is constructed by extracting claims from Wikipedia, falsifying a subset of these claims, and generating pairs of factual and unfactual texts. We then rely on human annotators to both validate the quality of our dataset and to create a gold standard test set for benchmarking factuality evaluation systems. Our experiments demonstrate that LLM-Oasis presents a significant challenge for state-of-the-art LLMs, with GPT-4o achieving up to 60% accuracy in our proposed end-to-end factuality evaluation task, highlighting its potential to drive future research in the field.

Summary

AI-Generated Summary

PDF202December 4, 2024