ChatPaper.aiChatPaper

Sondes d'entropie sémantique : Détection robuste et économique des hallucinations dans les grands modèles de langage

Semantic Entropy Probes: Robust and Cheap Hallucination Detection in LLMs

June 22, 2024
Auteurs: Jannik Kossen, Jiatong Han, Muhammed Razzak, Lisa Schut, Shreshth Malik, Yarin Gal
cs.AI

Résumé

Nous proposons les sondes d'entropie sémantique (SEPs), une méthode économique et fiable pour la quantification de l'incertitude dans les grands modèles de langage (LLMs). Les hallucinations, qui sont des générations de modèles plausibles mais factuellement incorrectes et arbitraires, représentent un défi majeur pour l'adoption pratique des LLMs. Les travaux récents de Farquhar et al. (2024) proposent l'entropie sémantique (SE), qui peut détecter les hallucinations en estimant l'incertitude dans l'espace de signification sémantique pour un ensemble de générations de modèles. Cependant, l'augmentation de 5 à 10 fois du coût de calcul associé à la SE entrave son adoption pratique. Pour remédier à cela, nous proposons les SEPs, qui approximent directement la SE à partir des états cachés d'une seule génération. Les SEPs sont simples à entraîner et ne nécessitent pas d'échantillonner plusieurs générations de modèles au moment du test, réduisant ainsi la surcharge de la quantification de l'incertitude sémantique à presque zéro. Nous montrons que les SEPs conservent des performances élevées pour la détection des hallucinations et généralisent mieux aux données hors distribution que les méthodes de sondage précédentes qui prédisent directement la précision du modèle. Nos résultats à travers les modèles et les tâches suggèrent que les états cachés des modèles capturent la SE, et nos études d'ablation fournissent des informations supplémentaires sur les positions des tokens et les couches du modèle pour lesquelles cela est le cas.
English
We propose semantic entropy probes (SEPs), a cheap and reliable method for uncertainty quantification in Large Language Models (LLMs). Hallucinations, which are plausible-sounding but factually incorrect and arbitrary model generations, present a major challenge to the practical adoption of LLMs. Recent work by Farquhar et al. (2024) proposes semantic entropy (SE), which can detect hallucinations by estimating uncertainty in the space semantic meaning for a set of model generations. However, the 5-to-10-fold increase in computation cost associated with SE computation hinders practical adoption. To address this, we propose SEPs, which directly approximate SE from the hidden states of a single generation. SEPs are simple to train and do not require sampling multiple model generations at test time, reducing the overhead of semantic uncertainty quantification to almost zero. We show that SEPs retain high performance for hallucination detection and generalize better to out-of-distribution data than previous probing methods that directly predict model accuracy. Our results across models and tasks suggest that model hidden states capture SE, and our ablation studies give further insights into the token positions and model layers for which this is the case.

Summary

AI-Generated Summary

PDF141November 29, 2024