ChatPaper.aiChatPaper

Les MLLM savent où regarder : Perception sans entraînement de petits détails visuels avec des MLLM multimodaux.

MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs

February 24, 2025
Auteurs: Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
cs.AI

Résumé

Les Modèles de Langage Multimodaux de Grande Taille (MLLM) ont connu des progrès rapides dans les tâches de reconnaissance visuelle ces dernières années. Étant donné leur potentiel d'intégration dans de nombreuses applications critiques, il est important de comprendre les limitations de leur perception visuelle. Dans ce travail, nous étudions si les MLLM peuvent percevoir aussi efficacement de petits détails visuels que de grands lorsqu'ils répondent à des questions sur des images. Nous observons que leur performance est très sensible à la taille du sujet visuel de la question, et montrons en outre que cet effet est en fait causal en menant une étude d'intervention. Ensuite, nous étudions les schémas d'attention des MLLM lorsqu'ils répondent à des questions visuelles, et trouvons de manière intrigante qu'ils savent toujours où regarder, même lorsqu'ils fournissent la mauvaise réponse. Sur la base de ces résultats, nous proposons ensuite des méthodes d'intervention visuelle sans entraînement qui exploitent la connaissance interne de n'importe quel MLLM lui-même, sous forme de cartes d'attention et de gradients, pour améliorer sa perception des petits détails visuels. Nous évaluons nos méthodes proposées sur deux MLLM largement utilisés et sept bancs d'essai de questions visuelles et montrons qu'elles peuvent améliorer significativement l'exactitude des MLLM sans nécessiter d'entraînement. Nos résultats mettent en lumière le risque d'appliquer des MLLM à des tâches de reconnaissance visuelle concernant de petits détails et indiquent que l'intervention visuelle en utilisant l'état interne du modèle est une direction prometteuse pour atténuer ce risque.
English
Multimodal Large Language Models (MLLMs) have experienced rapid progress in visual recognition tasks in recent years. Given their potential integration into many critical applications, it is important to understand the limitations of their visual perception. In this work, we study whether MLLMs can perceive small visual details as effectively as large ones when answering questions about images. We observe that their performance is very sensitive to the size of the visual subject of the question, and further show that this effect is in fact causal by conducting an intervention study. Next, we study the attention patterns of MLLMs when answering visual questions, and intriguingly find that they consistently know where to look, even when they provide the wrong answer. Based on these findings, we then propose training-free visual intervention methods that leverage the internal knowledge of any MLLM itself, in the form of attention and gradient maps, to enhance its perception of small visual details. We evaluate our proposed methods on two widely-used MLLMs and seven visual question answering benchmarks and show that they can significantly improve MLLMs' accuracy without requiring any training. Our results elucidate the risk of applying MLLMs to visual recognition tasks concerning small details and indicate that visual intervention using the model's internal state is a promising direction to mitigate this risk.

Summary

AI-Generated Summary

PDF72February 26, 2025