ChatPaper.aiChatPaper

Скрытая жизнь токенов: снижение галлюцинаций крупных моделей видео-языкового восприятия с помощью управления визуальной информацией.

The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering

February 5, 2025
Авторы: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI

Аннотация

Большие модели видео-языкового взаимодействия (LVLM) могут эффективно рассуждать как над текстовыми, так и над визуальными данными, однако они имеют тенденцию генерировать синтаксически связанный, но не имеющий визуальной основы контент. В данной статье мы исследуем внутреннюю динамику генерации контента, изучая ранжировку логитов токенов на протяжении процесса генерации, раскрывая три ключевых паттерна в обработке информации LVLM: (1) постепенная потеря визуальной информации - токены с визуальной основой постепенно теряют предпочтение на протяжении генерации, и (2) раннее возбуждение - семантически значимые токены достигают пика активации на более ранних слоях, чем на последнем слое. (3) скрытая подлинная информация - токены с визуальной основой, хотя и не выбираются в конечном итоге, все еще сохраняют относительно высокие ранжировки на этапе вывода. Основываясь на этих наблюдениях, мы предлагаем VISTA (Управление визуальной информацией с дополнением токен-логитов), фреймворк вмешательства в процесс вывода без обучения, который снижает генерацию контента без визуальной основы и способствует подлинной информации. VISTA работает путем комбинирования двух взаимодополняющих подходов: усиление визуальной информации в пространстве активации и использование активаций на ранних слоях для способствования семантически значимой декодировке. По сравнению с существующими методами, VISTA не требует внешнего контроля и применим к различным стратегиям декодирования. Обширные эксперименты показывают, что VISTA в среднем снижает генерацию контента без визуальной основы на 40% в рамках оценочной задачи генерации открытого текста и последовательно превосходит существующие методы на четырех тестовых наборах данных по четырем архитектурам при трех стратегиях декодирования.
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual and visual inputs, but they tend to hallucinate syntactically coherent yet visually ungrounded contents. In this paper, we investigate the internal dynamics of hallucination by examining the tokens logits rankings throughout the generation process, revealing three key patterns in how LVLMs process information: (1) gradual visual information loss -- visually grounded tokens gradually become less favored throughout generation, and (2) early excitation -- semantically meaningful tokens achieve peak activation in the layers earlier than the final layer. (3) hidden genuine information -- visually grounded tokens though not being eventually decided still retain relatively high rankings at inference. Based on these insights, we propose VISTA (Visual Information Steering with Token-logit Augmentation), a training-free inference-time intervention framework that reduces hallucination while promoting genuine information. VISTA works by combining two complementary approaches: reinforcing visual information in activation space and leveraging early layer activations to promote semantically meaningful decoding. Compared to existing methods, VISTA requires no external supervision and is applicable to various decoding strategies. Extensive experiments show that VISTA on average reduces hallucination by abount 40% on evaluated open-ended generation task, and it consistently outperforms existing methods on four benchmarks across four architectures under three decoding strategies.
PDF123February 11, 2025