ChatPaper.aiChatPaper

MLLMs Sabem Onde Olhar: Percepção de Pequenos Detalhes Visuais sem Treinamento com MLLMs Multimodais

MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs

February 24, 2025
Autores: Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
cs.AI

Resumo

Modelos de Linguagem Multimodais de Grande Escala (MLLMs) têm experimentado progresso rápido em tarefas de reconhecimento visual nos últimos anos. Dada sua potencial integração em muitas aplicações críticas, é importante compreender as limitações de sua percepção visual. Neste trabalho, investigamos se os MLLMs podem perceber detalhes visuais pequenos com a mesma eficácia que detalhes grandes ao responder perguntas sobre imagens. Observamos que seu desempenho é muito sensível ao tamanho do objeto visual da pergunta e, além disso, mostramos que esse efeito é de fato causal por meio de um estudo de intervenção. Em seguida, estudamos os padrões de atenção dos MLLMs ao responder perguntas visuais e, de forma intrigante, descobrimos que eles consistentemente sabem para onde olhar, mesmo quando fornecem a resposta errada. Com base nessas descobertas, propomos métodos de intervenção visual sem treinamento que aproveitam o conhecimento interno de qualquer MLLM, na forma de mapas de atenção e gradientes, para aprimorar sua percepção de detalhes visuais pequenos. Avaliamos nossos métodos propostos em dois MLLMs amplamente utilizados e sete benchmarks de resposta a perguntas visuais, demonstrando que eles podem melhorar significativamente a precisão dos MLLMs sem exigir nenhum treinamento. Nossos resultados elucidam o risco de aplicar MLLMs a tarefas de reconhecimento visual que envolvem detalhes pequenos e indicam que a intervenção visual usando o estado interno do modelo é uma direção promissora para mitigar esse risco.
English
Multimodal Large Language Models (MLLMs) have experienced rapid progress in visual recognition tasks in recent years. Given their potential integration into many critical applications, it is important to understand the limitations of their visual perception. In this work, we study whether MLLMs can perceive small visual details as effectively as large ones when answering questions about images. We observe that their performance is very sensitive to the size of the visual subject of the question, and further show that this effect is in fact causal by conducting an intervention study. Next, we study the attention patterns of MLLMs when answering visual questions, and intriguingly find that they consistently know where to look, even when they provide the wrong answer. Based on these findings, we then propose training-free visual intervention methods that leverage the internal knowledge of any MLLM itself, in the form of attention and gradient maps, to enhance its perception of small visual details. We evaluate our proposed methods on two widely-used MLLMs and seven visual question answering benchmarks and show that they can significantly improve MLLMs' accuracy without requiring any training. Our results elucidate the risk of applying MLLMs to visual recognition tasks concerning small details and indicate that visual intervention using the model's internal state is a promising direction to mitigate this risk.

Summary

AI-Generated Summary

PDF72February 26, 2025