ChatPaper.aiChatPaper

Generazione di Benchmark per la Valutazione della Fattualità nei Modelli Linguistici

Generating Benchmarks for Factuality Evaluation of Language Models

July 13, 2023
Autori: Dor Muhlgay, Ori Ram, Inbal Magar, Yoav Levine, Nir Ratner, Yonatan Belinkov, Omri Abend, Kevin Leyton-Brown, Amnon Shashua, Yoav Shoham
cs.AI

Abstract

Prima di implementare un modello linguistico (LM) in un determinato dominio, è fondamentale valutarne la tendenza a generare informazioni fattualmente errate in tale ambito. I metodi di valutazione esistenti per la generazione di fatti si concentrano su fatti campionati dal LM stesso, e quindi non controllano l'insieme dei fatti valutati, rischiando di sottorappresentare fatti rari e improbabili. Proponiamo FACTOR: Factual Assessment via Corpus TransfORmation, un approccio scalabile per valutare la fattualità dei LM. FACTOR trasforma automaticamente un corpus fattuale di interesse in un benchmark che valuta la propensione del LM a generare fatti veri dal corpus rispetto a affermazioni simili ma errate. Utilizziamo il nostro framework per creare due benchmark: Wiki-FACTOR e News-FACTOR. Dimostriamo che: (i) i punteggi del nostro benchmark aumentano con la dimensione del modello e migliorano quando il LM è potenziato con il retrieval; (ii) il punteggio del benchmark è correlato con la perplessità, ma le due metriche non concordano sempre sulla classifica dei modelli; e (iii) quando perplessità e punteggio del benchmark divergono, quest'ultimo riflette meglio la fattualità nella generazione aperta, come misurato da annotatori umani. Rendiamo disponibili i nostri dati e il codice all'indirizzo https://github.com/AI21Labs/factor.
English
Before deploying a language model (LM) within a given domain, it is important to measure its tendency to generate factually incorrect information in that domain. Existing factual generation evaluation methods focus on facts sampled from the LM itself, and thus do not control the set of evaluated facts and might under-represent rare and unlikely facts. We propose FACTOR: Factual Assessment via Corpus TransfORmation, a scalable approach for evaluating LM factuality. FACTOR automatically transforms a factual corpus of interest into a benchmark evaluating an LM's propensity to generate true facts from the corpus vs. similar but incorrect statements. We use our framework to create two benchmarks: Wiki-FACTOR and News-FACTOR. We show that: (i) our benchmark scores increase with model size and improve when the LM is augmented with retrieval; (ii) benchmark score correlates with perplexity, but the two metrics do not always agree on model ranking; and (iii) when perplexity and benchmark score disagree, the latter better reflects factuality in open-ended generation, as measured by human annotators. We make our data and code publicly available in https://github.com/AI21Labs/factor.
PDF80December 15, 2024