La Vida Oculta de los Tokens: Reducción de la Alucinación en Modelos de Visión-Lenguaje Grandes a través de la Dirección de Información Visual.
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
February 5, 2025
Autores: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI
Resumen
Los Modelos de Gran Escala Visión-Lenguaje (LVLMs) pueden razonar de manera efectiva sobre entradas tanto textuales como visuales, pero tienden a alucinar contenidos sintácticamente coherentes pero no fundamentados visualmente. En este artículo, investigamos la dinámica interna de la alucinación examinando las clasificaciones de logits de los tokens a lo largo del proceso de generación, revelando tres patrones clave en cómo los LVLMs procesan la información: (1) pérdida gradual de información visual: los tokens fundamentados visualmente gradualmente dejan de ser preferidos a lo largo de la generación, y (2) excitación temprana: los tokens semánticamente significativos alcanzan la máxima activación en las capas antes que en la capa final. (3) información genuina oculta: los tokens fundamentados visualmente, aunque no sean finalmente decididos, mantienen clasificaciones relativamente altas en la inferencia. Basándonos en estas percepciones, proponemos VISTA (Dirección de Información Visual con Aumento de Logits de Token), un marco de intervención en tiempo de inferencia sin entrenamiento que reduce la alucinación al tiempo que promueve la información genuina. VISTA funciona combinando dos enfoques complementarios: reforzando la información visual en el espacio de activación y aprovechando las activaciones de capas tempranas para promover una decodificación semánticamente significativa. En comparación con los métodos existentes, VISTA no requiere supervisión externa y es aplicable a varias estrategias de decodificación. Experimentos extensos muestran que VISTA reduce en promedio la alucinación en aproximadamente un 40% en la tarea de generación abierta evaluada, y supera consistentemente a los métodos existentes en cuatro bancos de pruebas a través de cuatro arquitecturas bajo tres estrategias de decodificación.
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual
and visual inputs, but they tend to hallucinate syntactically coherent yet
visually ungrounded contents. In this paper, we investigate the internal
dynamics of hallucination by examining the tokens logits rankings throughout
the generation process, revealing three key patterns in how LVLMs process
information: (1) gradual visual information loss -- visually grounded tokens
gradually become less favored throughout generation, and (2) early excitation
-- semantically meaningful tokens achieve peak activation in the layers earlier
than the final layer. (3) hidden genuine information -- visually grounded
tokens though not being eventually decided still retain relatively high
rankings at inference. Based on these insights, we propose VISTA (Visual
Information Steering with Token-logit Augmentation), a training-free
inference-time intervention framework that reduces hallucination while
promoting genuine information. VISTA works by combining two complementary
approaches: reinforcing visual information in activation space and leveraging
early layer activations to promote semantically meaningful decoding. Compared
to existing methods, VISTA requires no external supervision and is applicable
to various decoding strategies. Extensive experiments show that VISTA on
average reduces hallucination by abount 40% on evaluated open-ended generation
task, and it consistently outperforms existing methods on four benchmarks
across four architectures under three decoding strategies.Summary
AI-Generated Summary