ChatPaper.aiChatPaper

MLLMs wissen, wo sie suchen müssen: Trainingsfreie Wahrnehmung kleiner visueller Details mit multimodalen LLMs

MLLMs Know Where to Look: Training-free Perception of Small Visual Details with Multimodal LLMs

February 24, 2025
Autoren: Jiarui Zhang, Mahyar Khayatkhoei, Prateek Chhikara, Filip Ilievski
cs.AI

Zusammenfassung

Multimodale Large Language Models (MLLMs) haben in den letzten Jahren rasante Fortschritte bei visuellen Erkennungsaufgaben erzielt. Angesichts ihres potenziellen Einsatzes in vielen kritischen Anwendungen ist es wichtig, die Grenzen ihrer visuellen Wahrnehmung zu verstehen. In dieser Arbeit untersuchen wir, ob MLLMs kleine visuelle Details ebenso effektiv wahrnehmen können wie große, wenn sie Fragen zu Bildern beantworten. Wir beobachten, dass ihre Leistung sehr empfindlich auf die Größe des visuellen Subjekts der Frage reagiert, und zeigen weiterhin durch eine Interventionsstudie, dass dieser Effekt tatsächlich kausal ist. Anschließend untersuchen wir die Aufmerksamkeitsmuster von MLLMs bei der Beantwortung visueller Fragen und stellen interessanterweise fest, dass sie konsequent wissen, wohin sie schauen müssen, selbst wenn sie die falsche Antwort geben. Basierend auf diesen Erkenntnissen schlagen wir dann trainierungsfreie visuelle Interventionsmethoden vor, die das interne Wissen eines MLLMs selbst in Form von Aufmerksamkeits- und Gradientenkarten nutzen, um seine Wahrnehmung kleiner visueller Details zu verbessern. Wir evaluieren unsere vorgeschlagenen Methoden an zwei weit verbreiteten MLLMs und sieben visuellen Frage-Antwort-Benchmarks und zeigen, dass sie die Genauigkeit von MLLMs signifikant verbessern können, ohne dass ein Training erforderlich ist. Unsere Ergebnisse verdeutlichen das Risiko, MLLMs bei visuellen Erkennungsaufgaben im Zusammenhang mit kleinen Details einzusetzen, und weisen darauf hin, dass visuelle Interventionen unter Nutzung des internen Zustands des Modells ein vielversprechender Ansatz sind, um dieses Risiko zu mindern.
English
Multimodal Large Language Models (MLLMs) have experienced rapid progress in visual recognition tasks in recent years. Given their potential integration into many critical applications, it is important to understand the limitations of their visual perception. In this work, we study whether MLLMs can perceive small visual details as effectively as large ones when answering questions about images. We observe that their performance is very sensitive to the size of the visual subject of the question, and further show that this effect is in fact causal by conducting an intervention study. Next, we study the attention patterns of MLLMs when answering visual questions, and intriguingly find that they consistently know where to look, even when they provide the wrong answer. Based on these findings, we then propose training-free visual intervention methods that leverage the internal knowledge of any MLLM itself, in the form of attention and gradient maps, to enhance its perception of small visual details. We evaluate our proposed methods on two widely-used MLLMs and seven visual question answering benchmarks and show that they can significantly improve MLLMs' accuracy without requiring any training. Our results elucidate the risk of applying MLLMs to visual recognition tasks concerning small details and indicate that visual intervention using the model's internal state is a promising direction to mitigate this risk.

Summary

AI-Generated Summary

PDF72February 26, 2025