ChatPaper.aiChatPaper

HALoGEN: Alucinaciones LLM Fantásticas y Dónde Encontrarlas

HALoGEN: Fantastic LLM Hallucinations and Where to Find Them

January 14, 2025
Autores: Abhilasha Ravichander, Shrusti Ghela, David Wadden, Yejin Choi
cs.AI

Resumen

A pesar de su impresionante capacidad para generar texto de alta calidad y fluido, los modelos generativos de lenguaje grande (LLMs, por sus siglas en inglés) también producen alucinaciones: afirmaciones que no se alinean con el conocimiento del mundo establecido o el contexto de entrada proporcionado. Sin embargo, medir la alucinación puede ser desafiante, ya que hacer que los humanos verifiquen las generaciones del modelo sobre la marcha es costoso y consume mucho tiempo. En este trabajo, presentamos HALoGEN, un completo banco de pruebas de alucinaciones que consta de: (1) 10,923 indicaciones para modelos generativos que abarcan nueve dominios, incluidos la programación, la atribución científica y la sumarización, y (2) verificadores automáticos de alta precisión para cada caso de uso que descomponen las generaciones de LLM en unidades atómicas y verifican cada unidad con una fuente de conocimiento de alta calidad. Utilizamos este marco para evaluar ~150,000 generaciones de 14 modelos de lenguaje, descubriendo que incluso los modelos con mejor rendimiento están plagados de alucinaciones (a veces hasta un 86% de hechos atómicos generados, dependiendo del dominio). Además, definimos una nueva clasificación de errores para las alucinaciones de LLM basada en si probablemente provienen de una recopilación incorrecta de datos de entrenamiento (errores de Tipo A), conocimiento incorrecto en los datos de entrenamiento (errores de Tipo B) o son una fabricación (errores de Tipo C). Esperamos que nuestro marco siente las bases para permitir el estudio fundamentado de por qué los modelos generativos alucinan y fomentar el desarrollo de modelos de lenguaje grande confiables.
English
Despite their impressive ability to generate high-quality and fluent text, generative large language models (LLMs) also produce hallucinations: statements that are misaligned with established world knowledge or provided input context. However, measuring hallucination can be challenging, as having humans verify model generations on-the-fly is both expensive and time-consuming. In this work, we release HALoGEN, a comprehensive hallucination benchmark consisting of: (1) 10,923 prompts for generative models spanning nine domains including programming, scientific attribution, and summarization, and (2) automatic high-precision verifiers for each use case that decompose LLM generations into atomic units, and verify each unit against a high-quality knowledge source. We use this framework to evaluate ~150,000 generations from 14 language models, finding that even the best-performing models are riddled with hallucinations (sometimes up to 86% of generated atomic facts depending on the domain). We further define a novel error classification for LLM hallucinations based on whether they likely stem from incorrect recollection of training data (Type A errors), or incorrect knowledge in training data (Type B errors), or are fabrication (Type C errors). We hope our framework provides a foundation to enable the principled study of why generative models hallucinate, and advances the development of trustworthy large language models.

Summary

AI-Generated Summary

PDF172January 15, 2025