ChatPaper.aiChatPaper

Dove i MLLM Prestano Attenzione e su Cosa Si Basano: Spiegazione della Generazione Autoregressiva di Token

Where MLLMs Attend and What They Rely On: Explaining Autoregressive Token Generation

September 26, 2025
Autori: Ruoyu Chen, Xiaoqing Guo, Kangwei Liu, Siyuan Liang, Shiming Liu, Qunli Zhang, Hua Zhang, Xiaochun Cao
cs.AI

Abstract

I modelli linguistici multimodali di grandi dimensioni (MLLM) hanno dimostrato capacità notevoli nell'allineare input visivi con output in linguaggio naturale. Tuttavia, la misura in cui i token generati dipendono dalle modalità visive rimane poco compresa, limitando l'interpretabilità e l'affidabilità. In questo lavoro, presentiamo EAGLE, un framework leggero di tipo black-box per spiegare la generazione autoregressiva di token nei MLLM. EAGLE attribuisce qualsiasi token selezionato a regioni percettive compatte, quantificando l'influenza relativa dei precedenti linguistici e delle evidenze percettive. Il framework introduce una funzione obiettivo che unisce sufficienza (punteggio di insight) e indispensabilità (punteggio di necessità), ottimizzata tramite ricerca greedy su regioni immagine sparsificate per un'attribuzione fedele ed efficiente. Oltre all'attribuzione spaziale, EAGLE esegue un'analisi consapevole della modalità che districa su cosa si basano i token, fornendo un'interpretabilità fine delle decisioni del modello. Esperimenti estesi su MLLM open-source dimostrano che EAGLE supera costantemente i metodi esistenti in fedeltà, localizzazione e diagnosi di allucinazioni, richiedendo sostanzialmente meno memoria GPU. Questi risultati ne evidenziano l'efficacia e la praticità per avanzare l'interpretabilità dei MLLM. Il codice è disponibile all'indirizzo https://github.com/RuoyuChen10/EAGLE.
English
Multimodal large language models (MLLMs) have demonstrated remarkable capabilities in aligning visual inputs with natural language outputs. Yet, the extent to which generated tokens depend on visual modalities remains poorly understood, limiting interpretability and reliability. In this work, we present EAGLE, a lightweight black-box framework for explaining autoregressive token generation in MLLMs. EAGLE attributes any selected tokens to compact perceptual regions while quantifying the relative influence of language priors and perceptual evidence. The framework introduces an objective function that unifies sufficiency (insight score) and indispensability (necessity score), optimized via greedy search over sparsified image regions for faithful and efficient attribution. Beyond spatial attribution, EAGLE performs modality-aware analysis that disentangles what tokens rely on, providing fine-grained interpretability of model decisions. Extensive experiments across open-source MLLMs show that EAGLE consistently outperforms existing methods in faithfulness, localization, and hallucination diagnosis, while requiring substantially less GPU memory. These results highlight its effectiveness and practicality for advancing the interpretability of MLLMs. The code is available at https://github.com/RuoyuChen10/EAGLE.
PDF32September 29, 2025