A Vida Oculta dos Tokens: Reduzindo a Alucinação de Modelos de Grande Escala de Visão-Linguagem por Meio do Direcionamento de Informações Visuais.
The Hidden Life of Tokens: Reducing Hallucination of Large Vision-Language Models via Visual Information Steering
February 5, 2025
Autores: Zhuowei Li, Haizhou Shi, Yunhe Gao, Di Liu, Zhenting Wang, Yuxiao Chen, Ting Liu, Long Zhao, Hao Wang, Dimitris N. Metaxas
cs.AI
Resumo
Os Modelos de Grande Escala de Visão e Linguagem (LVLMs) conseguem raciocinar de forma eficaz tanto sobre entradas textuais quanto visuais, mas tendem a criar conteúdos sintaticamente coerentes, porém visualmente desconexos. Neste artigo, investigamos a dinâmica interna da alucinação examinando as classificações dos logitos dos tokens ao longo do processo de geração, revelando três padrões-chave na forma como os LVLMs processam informações: (1) perda gradual de informação visual - tokens visualmente fundamentados gradualmente perdem preferência ao longo da geração, e (2) excitação precoce - tokens semanticamente significativos atingem pico de ativação em camadas anteriores do que na camada final. (3) informação genuína oculta - tokens visualmente fundamentados, embora não sejam decididos no final, mantêm classificações relativamente altas na inferência. Com base nessas percepções, propomos o VISTA (Direcionamento de Informação Visual com Augmentação de Logito de Token), um framework de intervenção no tempo de inferência sem necessidade de treinamento que reduz a alucinação enquanto promove informações genuínas. O VISTA funciona combinando duas abordagens complementares: reforçando a informação visual no espaço de ativação e aproveitando ativações em camadas iniciais para promover uma decodificação semanticamente significativa. Comparado aos métodos existentes, o VISTA não requer supervisão externa e é aplicável a várias estratégias de decodificação. Experimentos extensos mostram que o VISTA, em média, reduz a alucinação em cerca de 40% na tarefa de geração aberta avaliada, e consistentemente supera os métodos existentes em quatro benchmarks em quatro arquiteturas sob três estratégias de decodificação.
English
Large Vision-Language Models (LVLMs) can reason effectively over both textual
and visual inputs, but they tend to hallucinate syntactically coherent yet
visually ungrounded contents. In this paper, we investigate the internal
dynamics of hallucination by examining the tokens logits rankings throughout
the generation process, revealing three key patterns in how LVLMs process
information: (1) gradual visual information loss -- visually grounded tokens
gradually become less favored throughout generation, and (2) early excitation
-- semantically meaningful tokens achieve peak activation in the layers earlier
than the final layer. (3) hidden genuine information -- visually grounded
tokens though not being eventually decided still retain relatively high
rankings at inference. Based on these insights, we propose VISTA (Visual
Information Steering with Token-logit Augmentation), a training-free
inference-time intervention framework that reduces hallucination while
promoting genuine information. VISTA works by combining two complementary
approaches: reinforcing visual information in activation space and leveraging
early layer activations to promote semantically meaningful decoding. Compared
to existing methods, VISTA requires no external supervision and is applicable
to various decoding strategies. Extensive experiments show that VISTA on
average reduces hallucination by abount 40% on evaluated open-ended generation
task, and it consistently outperforms existing methods on four benchmarks
across four architectures under three decoding strategies.