ChatPaper.aiChatPaper

Le MLLM sanno dove guardare: Percezione senza addestramento dei piccoli dettagli visivi con MLLM multimodali.

MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs

February 24, 2025
Autori: Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
cs.AI

Abstract

I Modelli di Linguaggio Multimodali di Grandi Dimensioni (MLLMs) hanno registrato un rapido progresso nelle attività di riconoscimento visivo negli ultimi anni. Data la loro potenziale integrazione in molte applicazioni critiche, è importante comprendere i limiti della loro percezione visiva. In questo lavoro, studiamo se i MLLMs possano percepire piccoli dettagli visivi in modo efficace quanto quelli di dimensioni maggiori quando rispondono a domande su immagini. Osserviamo che le loro prestazioni sono molto sensibili alla dimensione del soggetto visivo della domanda e dimostriamo inoltre che questo effetto è effettivamente causale attraverso uno studio di intervento. Successivamente, esaminiamo i modelli di attenzione dei MLLMs quando rispondono a domande visive e troviamo in modo intrigante che essi sanno costantemente dove guardare, anche quando forniscono una risposta sbagliata. Sulla base di questi risultati, proponiamo quindi metodi di intervento visivo senza addestramento che sfruttano la conoscenza interna di qualsiasi MLLM stesso, sotto forma di mappe di attenzione e gradienti, per migliorare la sua percezione dei piccoli dettagli visivi. Valutiamo i nostri metodi proposti su due MLLMs ampiamente utilizzati e su sette benchmark di risposta a domande visive e mostriamo che possono migliorare significativamente l'accuratezza dei MLLMs senza richiedere alcun addestramento. I nostri risultati chiariscono il rischio nell'applicare i MLLMs alle attività di riconoscimento visivo riguardanti piccoli dettagli e indicano che l'intervento visivo utilizzando lo stato interno del modello è una direzione promettente per mitigare questo rischio.
English
Multimodal Large Language Models (MLLMs) have experienced rapid progress in visual recognition tasks in recent years. Given their potential integration into many critical applications, it is important to understand the limitations of their visual perception. In this work, we study whether MLLMs can perceive small visual details as effectively as large ones when answering questions about images. We observe that their performance is very sensitive to the size of the visual subject of the question, and further show that this effect is in fact causal by conducting an intervention study. Next, we study the attention patterns of MLLMs when answering visual questions, and intriguingly find that they consistently know where to look, even when they provide the wrong answer. Based on these findings, we then propose training-free visual intervention methods that leverage the internal knowledge of any MLLM itself, in the form of attention and gradient maps, to enhance its perception of small visual details. We evaluate our proposed methods on two widely-used MLLMs and seven visual question answering benchmarks and show that they can significantly improve MLLMs' accuracy without requiring any training. Our results elucidate the risk of applying MLLMs to visual recognition tasks concerning small details and indicate that visual intervention using the model's internal state is a promising direction to mitigate this risk.

Summary

AI-Generated Summary

PDF72February 26, 2025