生成しつつ検証:遡及的リサンプリングによる視覚言語モデルの幻覚現象の低減
Generate, but Verify: Reducing Hallucination in Vision-Language Models with Retrospective Resampling
April 17, 2025
著者: Tsung-Han Wu, Heekyung Lee, Jiaxin Ge, Joseph E. Gonzalez, Trevor Darrell, David M. Chan
cs.AI
要旨
視覚言語モデル(VLMs)は視覚理解において優れているが、しばしば視覚的幻覚(visual hallucinations)に悩まされ、存在しない物体、行動、または概念を説明するテキストを生成してしまう。これは安全性が重要なアプリケーションにおいて重大なリスクを引き起こす。既存の幻覚緩和手法は、通常、2つのパラダイムに従う。1つは生成調整(generation adjustment)で、デコード動作を変更してテキストを視覚入力に整合させる。もう1つは事後検証(post-hoc verification)で、外部モデルが出力を評価し修正する。生成調整手法は効果的ではあるが、ヒューリスティックに依存しがちで修正メカニズムが欠如している。一方、事後検証は複雑で、通常複数のモデルを必要とし、出力を拒否する傾向がある。本論文では、幻覚を意識したトレーニングとオンザフライの自己検証を統合した統一フレームワーク「REVERSE」を提案する。130万以上の半合成サンプルを含む新しい幻覚検証データセットと、推論時の回顧的リサンプリング技術を活用することで、VLMsが生成中に幻覚を検出し、それらを動的に修正することを可能にする。評価結果では、REVERSEがCHAIR-MSCOCOで最大12%、HaloQuestで最大28%の幻覚削減を達成し、既存の最良の手法を上回る性能を示した。データセット、モデル、コードはhttps://reverse-vlm.github.ioで公開されている。
English
Vision-Language Models (VLMs) excel at visual understanding but often suffer
from visual hallucinations, where they generate descriptions of nonexistent
objects, actions, or concepts, posing significant risks in safety-critical
applications. Existing hallucination mitigation methods typically follow one of
two paradigms: generation adjustment, which modifies decoding behavior to align
text with visual inputs, and post-hoc verification, where external models
assess and correct outputs. While effective, generation adjustment methods
often rely on heuristics and lack correction mechanisms, while post-hoc
verification is complicated, typically requiring multiple models and tending to
reject outputs rather than refine them. In this work, we introduce REVERSE, a
unified framework that integrates hallucination-aware training with on-the-fly
self-verification. By leveraging a new hallucination-verification dataset
containing over 1.3M semi-synthetic samples, along with a novel inference-time
retrospective resampling technique, our approach enables VLMs to both detect
hallucinations during generation and dynamically revise those hallucinations.
Our evaluations show that REVERSE achieves state-of-the-art hallucination
reduction, outperforming the best existing methods by up to 12% on CHAIR-MSCOCO
and 28% on HaloQuest. Our dataset, model, and code are available at:
https://reverse-vlm.github.io.Summary
AI-Generated Summary