La Vita Nascosta dei Token: Riduzione dell'Allucinazione dei Grandi Modelli Visione-Linguaggio tramite Indirizzamento delle Informazioni Visive
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
February 5, 2025
Autori: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI
Abstract
I Large Vision-Language Models (LVLM) possono ragionare efficacemente su input testuali e visivi, ma tendono a generare contenuti sintatticamente coerenti ma non ancorati visivamente. In questo articolo, investighiamo la dinamica interna dell'allucinazione esaminando la classifica dei logit dei token durante il processo di generazione, rivelando tre modelli chiave nel modo in cui i LVLM elaborano le informazioni: (1) perdita graduale di informazioni visive - i token ancorati visivamente diventano gradualmente meno favoriti durante la generazione, e (2) eccitazione precoce - i token semanticamente significativi raggiungono l'attivazione massima nei livelli prima rispetto al livello finale. (3) informazioni genuine nascoste - i token ancorati visivamente, sebbene non vengano alla fine selezionati, mantengono comunque classifiche relativamente alte durante l'inferezza. Sulla base di queste osservazioni, proponiamo VISTA (Visual Information Steering with Token-logit Augmentation), un framework di intervento senza addestramento che riduce l'allucinazione promuovendo informazioni genuine. VISTA funziona combinando due approcci complementari: rafforzando le informazioni visive nello spazio di attivazione e sfruttando le attivazioni dei livelli precoci per promuovere una decodifica semanticamente significativa. Rispetto ai metodi esistenti, VISTA non richiede supervisione esterna ed è applicabile a varie strategie di decodifica. Estesi esperimenti mostrano che VISTA in media riduce l'allucinazione di circa il 40% nel compito di generazione aperta valutato, e supera costantemente i metodi esistenti su quattro benchmark attraverso quattro architetture con tre strategie di decodifica.
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual
and visual inputs, but they tend to hallucinate syntactically coherent yet
visually ungrounded contents. In this paper, we investigate the internal
dynamics of hallucination by examining the tokens logits rankings throughout
the generation process, revealing three key patterns in how LVLMs process
information: (1) gradual visual information loss -- visually grounded tokens
gradually become less favored throughout generation, and (2) early excitation
-- semantically meaningful tokens achieve peak activation in the layers earlier
than the final layer. (3) hidden genuine information -- visually grounded
tokens though not being eventually decided still retain relatively high
rankings at inference. Based on these insights, we propose VISTA (Visual
Information Steering with Token-logit Augmentation), a training-free
inference-time intervention framework that reduces hallucination while
promoting genuine information. VISTA works by combining two complementary
approaches: reinforcing visual information in activation space and leveraging
early layer activations to promote semantically meaningful decoding. Compared
to existing methods, VISTA requires no external supervision and is applicable
to various decoding strategies. Extensive experiments show that VISTA on
average reduces hallucination by abount 40% on evaluated open-ended generation
task, and it consistently outperforms existing methods on four benchmarks
across four architectures under three decoding strategies.Summary
AI-Generated Summary