ChatPaper.aiChatPaper

Erstellung von Benchmarks zur Bewertung der Faktizität von Sprachmodellen

Generating Benchmarks for Factuality Evaluation of Language Models

July 13, 2023
Autoren: Dor Muhlgay, Ori Ram, Inbal Magar, Yoav Levine, Nir Ratner, Yonatan Belinkov, Omri Abend, Kevin Leyton-Brown, Amnon Shashua, Yoav Shoham
cs.AI

Zusammenfassung

Bevor ein Sprachmodell (LM) in einem bestimmten Bereich eingesetzt wird, ist es wichtig, seine Tendenz zur Erzeugung faktisch falscher Informationen in diesem Bereich zu messen. Bestehende Methoden zur Bewertung der faktischen Generierung konzentrieren sich auf Fakten, die aus dem LM selbst stammen, und kontrollieren somit nicht den Satz der bewerteten Fakten, was seltene und unwahrscheinliche Fakten unterrepräsentieren könnte. Wir schlagen FACTOR vor: Factual Assessment via Corpus TransfORmation, einen skalierbaren Ansatz zur Bewertung der Faktizität von LMs. FACTOR transformiert automatisch ein relevantes Faktenkorpus in ein Benchmark, das die Neigung eines LMs bewertet, wahre Fakten aus dem Korpus im Vergleich zu ähnlichen, aber falschen Aussagen zu generieren. Wir verwenden unser Framework, um zwei Benchmarks zu erstellen: Wiki-FACTOR und News-FACTOR. Wir zeigen, dass: (i) unsere Benchmark-Werte mit der Modellgröße steigen und sich verbessern, wenn das LM mit Retrieval erweitert wird; (ii) der Benchmark-Wert mit der Perplexität korreliert, aber die beiden Metriken nicht immer in der Modellrangfolge übereinstimmen; und (iii) wenn Perplexität und Benchmark-Wert nicht übereinstimmen, letzterer die Faktizität bei der offenen Generierung besser widerspiegelt, wie von menschlichen Annotatoren gemessen. Wir stellen unsere Daten und unseren Code öffentlich unter https://github.com/AI21Labs/factor zur Verfügung.
English
Before deploying a language model (LM) within a given domain, it is important to measure its tendency to generate factually incorrect information in that domain. Existing factual generation evaluation methods focus on facts sampled from the LM itself, and thus do not control the set of evaluated facts and might under-represent rare and unlikely facts. We propose FACTOR: Factual Assessment via Corpus TransfORmation, a scalable approach for evaluating LM factuality. FACTOR automatically transforms a factual corpus of interest into a benchmark evaluating an LM's propensity to generate true facts from the corpus vs. similar but incorrect statements. We use our framework to create two benchmarks: Wiki-FACTOR and News-FACTOR. We show that: (i) our benchmark scores increase with model size and improve when the LM is augmented with retrieval; (ii) benchmark score correlates with perplexity, but the two metrics do not always agree on model ranking; and (iii) when perplexity and benchmark score disagree, the latter better reflects factuality in open-ended generation, as measured by human annotators. We make our data and code publicly available in https://github.com/AI21Labs/factor.
PDF80December 15, 2024