ChatPaper.aiChatPaper

Génération de référentiels pour l'évaluation de la factualité des modèles de langage

Generating Benchmarks for Factuality Evaluation of Language Models

July 13, 2023
Auteurs: Dor Muhlgay, Ori Ram, Inbal Magar, Yoav Levine, Nir Ratner, Yonatan Belinkov, Omri Abend, Kevin Leyton-Brown, Amnon Shashua, Yoav Shoham
cs.AI

Résumé

Avant de déployer un modèle de langage (LM) dans un domaine donné, il est important de mesurer sa tendance à générer des informations factuellement incorrectes dans ce domaine. Les méthodes d'évaluation existantes de la génération factuelle se concentrent sur des faits échantillonnés à partir du LM lui-même, et ne contrôlent donc pas l'ensemble des faits évalués, ce qui peut sous-représenter les faits rares et improbables. Nous proposons FACTOR : Factual Assessment via Corpus TransfORmation, une approche scalable pour évaluer la factualité des LM. FACTOR transforme automatiquement un corpus factuel d'intérêt en un benchmark évaluant la propension d'un LM à générer des faits véridiques issus du corpus par rapport à des déclarations similaires mais incorrectes. Nous utilisons notre cadre pour créer deux benchmarks : Wiki-FACTOR et News-FACTOR. Nous montrons que : (i) les scores de notre benchmark augmentent avec la taille du modèle et s'améliorent lorsque le LM est augmenté par un mécanisme de recherche ; (ii) le score du benchmark est corrélé à la perplexité, mais les deux métriques ne concordent pas toujours sur le classement des modèles ; et (iii) lorsque la perplexité et le score du benchmark divergent, ce dernier reflète mieux la factualité dans la génération ouverte, telle que mesurée par des annotateurs humains. Nous mettons à disposition nos données et notre code sur https://github.com/AI21Labs/factor.
English
Before deploying a language model (LM) within a given domain, it is important to measure its tendency to generate factually incorrect information in that domain. Existing factual generation evaluation methods focus on facts sampled from the LM itself, and thus do not control the set of evaluated facts and might under-represent rare and unlikely facts. We propose FACTOR: Factual Assessment via Corpus TransfORmation, a scalable approach for evaluating LM factuality. FACTOR automatically transforms a factual corpus of interest into a benchmark evaluating an LM's propensity to generate true facts from the corpus vs. similar but incorrect statements. We use our framework to create two benchmarks: Wiki-FACTOR and News-FACTOR. We show that: (i) our benchmark scores increase with model size and improve when the LM is augmented with retrieval; (ii) benchmark score correlates with perplexity, but the two metrics do not always agree on model ranking; and (iii) when perplexity and benchmark score disagree, the latter better reflects factuality in open-ended generation, as measured by human annotators. We make our data and code publicly available in https://github.com/AI21Labs/factor.
PDF80December 15, 2024