ChatPaper.aiChatPaper

Het verborgen leven van tokens: het verminderen van hallucinatie van grote visie-taalmodellen via visuele informatiebesturing.

The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering

February 5, 2025
Auteurs: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI

Samenvatting

Grote Vision-Language Modellen (GVLM's) kunnen effectief redeneren over zowel tekstuele als visuele invoer, maar ze hebben de neiging om syntactisch coherente maar visueel niet gefundeerde inhoud te hallucineren. In dit artikel onderzoeken we de interne dynamiek van hallucinatie door de rangschikking van token-logits te onderzoeken gedurende het generatieproces, waarbij drie belangrijke patronen in hoe GVLM's informatie verwerken worden onthuld: (1) geleidelijk verlies van visuele informatie - visueel gefundeerde tokens worden geleidelijk minder gunstig gedurende de generatie, en (2) vroege excitatie - semantisch betekenisvolle tokens bereiken piekactivatie in de lagen eerder dan in de laatste laag. (3) verborgen echte informatie - visueel gefundeerde tokens behouden relatief hoge rangschikkingen bij inferentie, hoewel ze uiteindelijk niet worden gekozen. Op basis van deze inzichten stellen we VISTA (Visual Information Steering with Token-logit Augmentation) voor, een trainingvrij interventiekader voor inferentie dat hallucinatie vermindert en echte informatie bevordert. VISTA werkt door twee complementaire benaderingen te combineren: het versterken van visuele informatie in de activatieruimte en het benutten van vroege laagactivaties om semantisch betekenisvolle decodering te bevorderen. In vergelijking met bestaande methoden heeft VISTA geen externe supervisie nodig en is het toepasbaar op verschillende decoderingsstrategieën. Uitgebreide experimenten tonen aan dat VISTA gemiddeld de hallucinatie met ongeveer 40% vermindert bij geëvalueerde open-ended generatietaak, en het presteert consequent beter dan bestaande methoden op vier benchmarks over vier architecturen onder drie decoderingsstrategieën.
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual and visual inputs, but they tend to hallucinate syntactically coherent yet visually ungrounded contents. In this paper, we investigate the internal dynamics of hallucination by examining the tokens logits rankings throughout the generation process, revealing three key patterns in how LVLMs process information: (1) gradual visual information loss -- visually grounded tokens gradually become less favored throughout generation, and (2) early excitation -- semantically meaningful tokens achieve peak activation in the layers earlier than the final layer. (3) hidden genuine information -- visually grounded tokens though not being eventually decided still retain relatively high rankings at inference. Based on these insights, we propose VISTA (Visual Information Steering with Token-logit Augmentation), a training-free inference-time intervention framework that reduces hallucination while promoting genuine information. VISTA works by combining two complementary approaches: reinforcing visual information in activation space and leveraging early layer activations to promote semantically meaningful decoding. Compared to existing methods, VISTA requires no external supervision and is applicable to various decoding strategies. Extensive experiments show that VISTA on average reduces hallucination by abount 40% on evaluated open-ended generation task, and it consistently outperforms existing methods on four benchmarks across four architectures under three decoding strategies.

Summary

AI-Generated Summary

PDF123February 11, 2025