ChatPaper.aiChatPaper

Generación de Puntos de Referencia para la Evaluación de la Veracidad en Modelos de Lenguaje

Generating Benchmarks for Factuality Evaluation of Language Models

July 13, 2023
Autores: Dor Muhlgay, Ori Ram, Inbal Magar, Yoav Levine, Nir Ratner, Yonatan Belinkov, Omri Abend, Kevin Leyton-Brown, Amnon Shashua, Yoav Shoham
cs.AI

Resumen

Antes de implementar un modelo de lenguaje (LM) en un dominio específico, es importante medir su tendencia a generar información fácticamente incorrecta en ese dominio. Los métodos existentes para evaluar la generación de hechos se centran en datos muestreados del propio LM, por lo que no controlan el conjunto de hechos evaluados y podrían subrepresentar hechos raros e improbables. Proponemos FACTOR: Evaluación Factual mediante Transformación de Corpus, un enfoque escalable para evaluar la factualidad de los LM. FACTOR transforma automáticamente un corpus factual de interés en un benchmark que evalúa la propensión de un LM a generar hechos verdaderos del corpus frente a afirmaciones similares pero incorrectas. Utilizamos nuestro marco para crear dos benchmarks: Wiki-FACTOR y News-FACTOR. Demostramos que: (i) las puntuaciones de nuestro benchmark aumentan con el tamaño del modelo y mejoran cuando el LM se complementa con recuperación de información; (ii) la puntuación del benchmark se correlaciona con la perplejidad, pero ambas métricas no siempre coinciden en la clasificación de los modelos; y (iii) cuando la perplejidad y la puntuación del benchmark difieren, esta última refleja mejor la factualidad en la generación abierta, según lo medido por anotadores humanos. Ponemos a disposición nuestros datos y código en https://github.com/AI21Labs/factor.
English
Before deploying a language model (LM) within a given domain, it is important to measure its tendency to generate factually incorrect information in that domain. Existing factual generation evaluation methods focus on facts sampled from the LM itself, and thus do not control the set of evaluated facts and might under-represent rare and unlikely facts. We propose FACTOR: Factual Assessment via Corpus TransfORmation, a scalable approach for evaluating LM factuality. FACTOR automatically transforms a factual corpus of interest into a benchmark evaluating an LM's propensity to generate true facts from the corpus vs. similar but incorrect statements. We use our framework to create two benchmarks: Wiki-FACTOR and News-FACTOR. We show that: (i) our benchmark scores increase with model size and improve when the LM is augmented with retrieval; (ii) benchmark score correlates with perplexity, but the two metrics do not always agree on model ranking; and (iii) when perplexity and benchmark score disagree, the latter better reflects factuality in open-ended generation, as measured by human annotators. We make our data and code publicly available in https://github.com/AI21Labs/factor.
PDF80December 15, 2024