La Vie Cachée des Tokens : Réduire l'Hallucination des Grands Modèles Vision-Language via l'Orientation de l'Information Visuelle
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
February 5, 2025
Auteurs: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI
Résumé
Les grands modèles Vision-Language (LVLMs) peuvent raisonner efficacement sur des entrées textuelles et visuelles, mais ils ont tendance à halluciner des contenus syntaxiquement cohérents mais non ancrés visuellement. Dans cet article, nous étudions la dynamique interne de l'hallucination en examinant le classement des logits des jetons tout au long du processus de génération, révélant trois motifs clés dans la façon dont les LVLMs traitent l'information : (1) perte progressive d'information visuelle - les jetons ancrés visuellement deviennent progressivement moins favorisés tout au long de la génération, et (2) excitation précoce - les jetons sémantiquement significatifs atteignent leur pic d'activation dans les couches plus tôt que dans la couche finale. (3) information authentique cachée - les jetons ancrés visuellement, bien qu'ils ne soient pas finalement choisis, conservent néanmoins des classements relativement élevés lors de l'inférence. Sur la base de ces observations, nous proposons VISTA (Visual Information Steering with Token-logit Augmentation), un cadre d'intervention à l'heure de l'inférence sans entraînement qui réduit l'hallucination tout en favorisant l'information authentique. VISTA fonctionne en combinant deux approches complémentaires : renforcer l'information visuelle dans l'espace d'activation et exploiter les activations des couches précoces pour favoriser un décodage sémantiquement significatif. Comparé aux méthodes existantes, VISTA ne nécessite aucune supervision externe et est applicable à diverses stratégies de décodage. Des expériences approfondies montrent que VISTA réduit en moyenne l'hallucination d'environ 40 % sur une tâche de génération ouverte évaluée, et qu'il surpasse de manière constante les méthodes existantes sur quatre benchmarks à travers quatre architectures sous trois stratégies de décodage.
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual
and visual inputs, but they tend to hallucinate syntactically coherent yet
visually ungrounded contents. In this paper, we investigate the internal
dynamics of hallucination by examining the tokens logits rankings throughout
the generation process, revealing three key patterns in how LVLMs process
information: (1) gradual visual information loss -- visually grounded tokens
gradually become less favored throughout generation, and (2) early excitation
-- semantically meaningful tokens achieve peak activation in the layers earlier
than the final layer. (3) hidden genuine information -- visually grounded
tokens though not being eventually decided still retain relatively high
rankings at inference. Based on these insights, we propose VISTA (Visual
Information Steering with Token-logit Augmentation), a training-free
inference-time intervention framework that reduces hallucination while
promoting genuine information. VISTA works by combining two complementary
approaches: reinforcing visual information in activation space and leveraging
early layer activations to promote semantically meaningful decoding. Compared
to existing methods, VISTA requires no external supervision and is applicable
to various decoding strategies. Extensive experiments show that VISTA on
average reduces hallucination by abount 40% on evaluated open-ended generation
task, and it consistently outperforms existing methods on four benchmarks
across four architectures under three decoding strategies.Summary
AI-Generated Summary