ChatPaper.aiChatPaper

トークンの隠れた生活:視覚情報誘導を介した大視覚言語モデルの幻覚低減

The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering

February 5, 2025
著者: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI

要旨

大規模ビジョン言語モデル(LVLMs)は、テキストおよび視覚入力の両方に効果的に推論できますが、構文的に整合性のあるが視覚的に根拠のない内容を幻視する傾向があります。本論文では、幻視の内部ダイナミクスを調査し、生成プロセス全体でトークンのロジットランキングを調査することにより、LVLMsが情報を処理する方法における3つの主要なパターンを明らかにします:(1)徐々に視覚情報の喪失―視覚的に根拠のあるトークンは生成の過程で徐々に好まれなくなり、(2)早期励起―意味のあるトークンが最終層よりも早い段階でピーク活性化を達成する、(3)隠れた真の情報―視覚的に根拠のあるトークンは最終的には決定されないままでも推論時に比較的高いランキングを維持します。これらの洞察に基づき、幻視を減少させながら真の情報を促進するVISTA(トークンロジット増強による視覚情報誘導)という、トレーニング不要の推論時介入フレームワークを提案します。VISTAは、活性化空間で視覚情報を強化し、意味のあるデコーディングを促進するために、2つの補完的アプローチを組み合わせて機能します。既存の手法と比較して、VISTAは外部監督を必要とせず、さまざまなデコーディング戦略に適用可能です。広範な実験では、VISTAが評価されたオープンエンドの生成タスクにおいて幻視を平均して約40%削減し、3つのデコーディング戦略の下で4つのアーキテクチャにわたる4つのベンチマークで、既存の手法を一貫して上回ることが示されました。
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual and visual inputs, but they tend to hallucinate syntactically coherent yet visually ungrounded contents. In this paper, we investigate the internal dynamics of hallucination by examining the tokens logits rankings throughout the generation process, revealing three key patterns in how LVLMs process information: (1) gradual visual information loss -- visually grounded tokens gradually become less favored throughout generation, and (2) early excitation -- semantically meaningful tokens achieve peak activation in the layers earlier than the final layer. (3) hidden genuine information -- visually grounded tokens though not being eventually decided still retain relatively high rankings at inference. Based on these insights, we propose VISTA (Visual Information Steering with Token-logit Augmentation), a training-free inference-time intervention framework that reduces hallucination while promoting genuine information. VISTA works by combining two complementary approaches: reinforcing visual information in activation space and leveraging early layer activations to promote semantically meaningful decoding. Compared to existing methods, VISTA requires no external supervision and is applicable to various decoding strategies. Extensive experiments show that VISTA on average reduces hallucination by abount 40% on evaluated open-ended generation task, and it consistently outperforms existing methods on four benchmarks across four architectures under three decoding strategies.

Summary

AI-Generated Summary

PDF123February 11, 2025