Sondas de Entropía Semántica: Detección Robusta y Económica de Alucinaciones en Modelos de Lenguaje de Gran Escala
Semantic Entropy Probes: Robust and Cheap Hallucination Detection in LLMs
June 22, 2024
Autores: Jannik Kossen, Jiatong Han, Muhammed Razzak, Lisa Schut, Shreshth Malik, Yarin Gal
cs.AI
Resumen
Proponemos sondas de entropía semántica (SEPs, por sus siglas en inglés), un método económico y confiable para la cuantificación de incertidumbre en Modelos de Lenguaje de Gran Escala (LLMs). Las alucinaciones, que son generaciones del modelo que suenan plausibles pero son factualmente incorrectas y arbitrarias, representan un desafío importante para la adopción práctica de los LLMs. Trabajos recientes de Farquhar et al. (2024) proponen la entropía semántica (SE), que puede detectar alucinaciones al estimar la incertidumbre en el espacio de significado semántico para un conjunto de generaciones del modelo. Sin embargo, el aumento de 5 a 10 veces en el costo computacional asociado con el cálculo de SE dificulta su adopción práctica. Para abordar esto, proponemos SEPs, que aproximan directamente la SE a partir de los estados ocultos de una sola generación. Las SEPs son simples de entrenar y no requieren muestrear múltiples generaciones del modelo en tiempo de prueba, reduciendo la sobrecarga de la cuantificación de incertidumbre semántica a casi cero. Demostramos que las SEPs mantienen un alto rendimiento en la detección de alucinaciones y generalizan mejor a datos fuera de distribución que métodos anteriores de sondeo que predicen directamente la precisión del modelo. Nuestros resultados en diversos modelos y tareas sugieren que los estados ocultos del modelo capturan la SE, y nuestros estudios de ablación brindan más información sobre las posiciones de tokens y capas del modelo para las cuales esto ocurre.
English
We propose semantic entropy probes (SEPs), a cheap and reliable method for
uncertainty quantification in Large Language Models (LLMs). Hallucinations,
which are plausible-sounding but factually incorrect and arbitrary model
generations, present a major challenge to the practical adoption of LLMs.
Recent work by Farquhar et al. (2024) proposes semantic entropy (SE), which can
detect hallucinations by estimating uncertainty in the space semantic meaning
for a set of model generations. However, the 5-to-10-fold increase in
computation cost associated with SE computation hinders practical adoption. To
address this, we propose SEPs, which directly approximate SE from the hidden
states of a single generation. SEPs are simple to train and do not require
sampling multiple model generations at test time, reducing the overhead of
semantic uncertainty quantification to almost zero. We show that SEPs retain
high performance for hallucination detection and generalize better to
out-of-distribution data than previous probing methods that directly predict
model accuracy. Our results across models and tasks suggest that model hidden
states capture SE, and our ablation studies give further insights into the
token positions and model layers for which this is the case.