ChatPaper.aiChatPaper

Il vero apprendimento multimodale in-context richiede attenzione al contesto visivo

True Multimodal In-Context Learning Needs Attention to the Visual Context

July 21, 2025
Autori: Shuo Chen, Jianzhe Liu, Zhen Han, Yan Xia, Daniel Cremers, Philip Torr, Volker Tresp, Jindong Gu
cs.AI

Abstract

I Modelli Linguistici Multimodali di Grande Scala (MLLMs), costruiti su robuste architetture linguistiche, hanno abilitato l'Apprendimento in Contesto Multimodale (MICL) - l'adattamento a nuovi compiti a partire da poche dimostrazioni multimodali costituite da immagini, domande e risposte. Nonostante mostrino un miglioramento significativo sui dataset standard di visione e linguaggio, gli attuali MLLMs faticano a sfruttare le informazioni visive nelle dimostrazioni. Nello specifico, tendono a trascurare gli indizi visivi e a fare eccessivo affidamento sui modelli testuali, portando a una mera imitazione del testo piuttosto che a un autentico adattamento multimodale. Questo comportamento rende il MICL ancora unimodale e ne limita fortemente l'utilità pratica. Ancora più importante, questa limitazione è spesso mascherata dal miglioramento delle prestazioni su compiti che non richiedono la comprensione del contesto visivo. Di conseguenza, come migliorare efficacemente le capacità del MICL e valutare in modo affidabile le prestazioni del MICL rimane poco esplorato. Per affrontare questi problemi, introduciamo innanzitutto la Riallocazione Dinamica dell'Attenzione (DARA), una strategia di fine-tuning efficiente che incoraggia i modelli a prestare attenzione al contesto visivo riequilibrando l'attenzione tra i token visivi e testuali. Inoltre, presentiamo TrueMICL, un dataset dedicato al MICL con set di supporto e di test che richiedono esplicitamente l'integrazione di informazioni multimodali - in particolare contenuti visivi - per il corretto completamento del compito. Esperimenti estesi dimostrano l'efficacia della nostra soluzione olistica, mostrando miglioramenti sostanziali nelle vere capacità di apprendimento in contesto multimodale. Codice e dataset sono disponibili all'indirizzo https://chenxshuo.github.io/true-micl-colm.
English
Multimodal Large Language Models (MLLMs), built on powerful language backbones, have enabled Multimodal In-Context Learning (MICL)-adapting to new tasks from a few multimodal demonstrations consisting of images, questions, and answers. Despite showing noticeable improvement on standard vision-language datasets, current MLLMs struggle to leverage visual information in the demonstrations. Specifically, they tend to neglect visual cues and over-rely on textual patterns, leading to mere text imitation rather than genuine multimodal adaptation. This behavior makes MICL still unimodal and largely restricts its practical utility. More importantly, this limitation is often concealed by the improved performance on tasks that do not require understanding the visual context. As a result, how to effectively enhance MICL ability and reliably evaluate the MICL performance remains underexplored. To address these issues, we first introduce Dynamic Attention Reallocation (DARA), an efficient fine-tuning strategy that encourages models to attend to the visual context by rebalancing attention across visual and textual tokens. In addition, we present TrueMICL, an MICL-dedicated dataset with both support and test sets that explicitly requires the integration of multimodal information-particularly visual content-for correct task completion. Extensive experiments demonstrate the effectiveness of our holistic solution, showcasing substantial improvements in the true multimodal in-context learning capabilities. Code and datasets are available at https://chenxshuo.github.io/true-micl-colm .
PDF12July 25, 2025