Sondas de Entropia Semântica: Detecção Robusta e Econômica de Alucinação em LLMs
Semantic Entropy Probes: Robust and Cheap Hallucination Detection in LLMs
June 22, 2024
Autores: Jannik Kossen, Jiatong Han, Muhammed Razzak, Lisa Schut, Shreshth Malik, Yarin Gal
cs.AI
Resumo
Propomos sondas de entropia semântica (SEPs), um método barato e confiável para quantificação de incerteza em Modelos de Linguagem Grandes (LLMs). As alucinações, que são gerações de modelos plausíveis, mas factualmente incorretas e arbitrárias, representam um grande desafio para a adoção prática de LLMs. Um trabalho recente de Farquhar et al. (2024) propõe a entropia semântica (SE), que pode detectar alucinações estimando a incerteza no espaço de significado semântico para um conjunto de gerações do modelo. No entanto, o aumento de 5 a 10 vezes no custo computacional associado à computação de SE dificulta a adoção prática. Para lidar com isso, propomos SEPs, que aproximam diretamente SE a partir dos estados ocultos de uma única geração. As SEPs são simples de treinar e não exigem a amostragem de múltiplas gerações do modelo no momento do teste, reduzindo a sobrecarga da quantificação de incerteza semântica quase a zero. Mostramos que as SEPs mantêm alto desempenho na detecção de alucinações e generalizam melhor para dados fora da distribuição do que métodos de sondagem anteriores que preveem diretamente a precisão do modelo. Nossos resultados em diversos modelos e tarefas sugerem que os estados ocultos do modelo capturam a SE, e nossos estudos de ablação fornecem mais insights sobre as posições dos tokens e camadas do modelo para as quais isso é válido.
English
We propose semantic entropy probes (SEPs), a cheap and reliable method for
uncertainty quantification in Large Language Models (LLMs). Hallucinations,
which are plausible-sounding but factually incorrect and arbitrary model
generations, present a major challenge to the practical adoption of LLMs.
Recent work by Farquhar et al. (2024) proposes semantic entropy (SE), which can
detect hallucinations by estimating uncertainty in the space semantic meaning
for a set of model generations. However, the 5-to-10-fold increase in
computation cost associated with SE computation hinders practical adoption. To
address this, we propose SEPs, which directly approximate SE from the hidden
states of a single generation. SEPs are simple to train and do not require
sampling multiple model generations at test time, reducing the overhead of
semantic uncertainty quantification to almost zero. We show that SEPs retain
high performance for hallucination detection and generalize better to
out-of-distribution data than previous probing methods that directly predict
model accuracy. Our results across models and tasks suggest that model hidden
states capture SE, and our ablation studies give further insights into the
token positions and model layers for which this is the case.