ChatPaper.aiChatPaper

Wo MLLMs ihre Aufmerksamkeit richten und worauf sie sich stützen: Die Erklärung der autoregressiven Token-Generierung

Where MLLMs Attend and What They Rely On: Explaining Autoregressive Token Generation

September 26, 2025
papers.authors: Ruoyu Chen, Xiaoqing Guo, Kangwei Liu, Siyuan Liang, Shiming Liu, Qunli Zhang, Hua Zhang, Xiaochun Cao
cs.AI

papers.abstract

Multimodale große Sprachmodelle (MLLMs) haben bemerkenswerte Fähigkeiten bei der Ausrichtung visueller Eingaben an natürliche Sprachausgaben gezeigt. Dennoch ist das Ausmaß, in dem generierte Tokens von visuellen Modalitäten abhängen, noch weitgehend unverstanden, was die Interpretierbarkeit und Zuverlässigkeit einschränkt. In dieser Arbeit präsentieren wir EAGLE, ein leichtgewichtiges Black-Box-Framework zur Erklärung der autoregressiven Token-Generierung in MLLMs. EAGLE ordnet ausgewählte Tokens kompakten Wahrnehmungsregionen zu und quantifiziert den relativen Einfluss von Sprachpriors und Wahrnehmungsbeweisen. Das Framework führt eine Zielfunktion ein, die Suffizienz (Insight-Score) und Unverzichtbarkeit (Notwendigkeits-Score) vereint und durch eine gierige Suche über sparsifizierte Bildregionen für eine treue und effiziente Attribution optimiert wird. Über die räumliche Attribution hinaus führt EAGLE eine modalitätsbewusste Analyse durch, die aufschlüsselt, worauf Tokens angewiesen sind, und so eine feinkörnige Interpretierbarkeit von Modellentscheidungen bietet. Umfangreiche Experimente mit Open-Source-MLLMs zeigen, dass EAGLE bestehende Methoden in Bezug auf Treue, Lokalisierung und Halluzinationsdiagnose konsequent übertrifft, während er deutlich weniger GPU-Speicher benötigt. Diese Ergebnisse unterstreichen seine Effektivität und Praktikabilität für die Verbesserung der Interpretierbarkeit von MLLMs. Der Code ist unter https://github.com/RuoyuChen10/EAGLE verfügbar.
English
Multimodal large language models (MLLMs) have demonstrated remarkable capabilities in aligning visual inputs with natural language outputs. Yet, the extent to which generated tokens depend on visual modalities remains poorly understood, limiting interpretability and reliability. In this work, we present EAGLE, a lightweight black-box framework for explaining autoregressive token generation in MLLMs. EAGLE attributes any selected tokens to compact perceptual regions while quantifying the relative influence of language priors and perceptual evidence. The framework introduces an objective function that unifies sufficiency (insight score) and indispensability (necessity score), optimized via greedy search over sparsified image regions for faithful and efficient attribution. Beyond spatial attribution, EAGLE performs modality-aware analysis that disentangles what tokens rely on, providing fine-grained interpretability of model decisions. Extensive experiments across open-source MLLMs show that EAGLE consistently outperforms existing methods in faithfulness, localization, and hallucination diagnosis, while requiring substantially less GPU memory. These results highlight its effectiveness and practicality for advancing the interpretability of MLLMs. The code is available at https://github.com/RuoyuChen10/EAGLE.
PDF22September 29, 2025