ChatPaper.aiChatPaper

Gerando Benchmarks para Avaliação de Factualidade em Modelos de Linguagem

Generating Benchmarks for Factuality Evaluation of Language Models

July 13, 2023
Autores: Dor Muhlgay, Ori Ram, Inbal Magar, Yoav Levine, Nir Ratner, Yonatan Belinkov, Omri Abend, Kevin Leyton-Brown, Amnon Shashua, Yoav Shoham
cs.AI

Resumo

Antes de implantar um modelo de linguagem (LM) em um determinado domínio, é importante medir sua tendência de gerar informações factualmente incorretas nesse domínio. Os métodos existentes de avaliação de geração factual concentram-se em fatos amostrados do próprio LM e, portanto, não controlam o conjunto de fatos avaliados, podendo sub-representar fatos raros e improváveis. Propomos o FACTOR: Avaliação Factual via Transformação de Corpus, uma abordagem escalável para avaliar a factualidade de LMs. O FACTOR transforma automaticamente um corpus factual de interesse em um benchmark que avalia a propensão de um LM em gerar fatos verdadeiros do corpus versus declarações semelhantes, mas incorretas. Utilizamos nosso framework para criar dois benchmarks: Wiki-FACTOR e News-FACTOR. Mostramos que: (i) as pontuações do nosso benchmark aumentam com o tamanho do modelo e melhoram quando o LM é aumentado com recuperação de informações; (ii) a pontuação do benchmark correlaciona-se com a perplexidade, mas as duas métricas nem sempre concordam na classificação dos modelos; e (iii) quando a perplexidade e a pontuação do benchmark discordam, a última reflete melhor a factualidade na geração aberta, conforme medido por anotadores humanos. Disponibilizamos nossos dados e código publicamente em https://github.com/AI21Labs/factor.
English
Before deploying a language model (LM) within a given domain, it is important to measure its tendency to generate factually incorrect information in that domain. Existing factual generation evaluation methods focus on facts sampled from the LM itself, and thus do not control the set of evaluated facts and might under-represent rare and unlikely facts. We propose FACTOR: Factual Assessment via Corpus TransfORmation, a scalable approach for evaluating LM factuality. FACTOR automatically transforms a factual corpus of interest into a benchmark evaluating an LM's propensity to generate true facts from the corpus vs. similar but incorrect statements. We use our framework to create two benchmarks: Wiki-FACTOR and News-FACTOR. We show that: (i) our benchmark scores increase with model size and improve when the LM is augmented with retrieval; (ii) benchmark score correlates with perplexity, but the two metrics do not always agree on model ranking; and (iii) when perplexity and benchmark score disagree, the latter better reflects factuality in open-ended generation, as measured by human annotators. We make our data and code publicly available in https://github.com/AI21Labs/factor.
PDF80December 15, 2024