ChatPaper.aiChatPaper

Onde os MLLMs Atendem e no Que Eles se Baseiam: Explicando a Geração Autoregressiva de Tokens

Where MLLMs Attend and What They Rely On: Explaining Autoregressive Token Generation

September 26, 2025
Autores: Ruoyu Chen, Xiaoqing Guo, Kangwei Liu, Siyuan Liang, Shiming Liu, Qunli Zhang, Hua Zhang, Xiaochun Cao
cs.AI

Resumo

Modelos de linguagem multimodal de grande escala (MLLMs) têm demonstrado capacidades notáveis em alinhar entradas visuais com saídas de linguagem natural. No entanto, o grau em que os tokens gerados dependem de modalidades visuais permanece pouco compreendido, limitando a interpretabilidade e a confiabilidade. Neste trabalho, apresentamos o EAGLE, uma estrutura leve de caixa-preta para explicar a geração autoregressiva de tokens em MLLMs. O EAGLE atribui quaisquer tokens selecionados a regiões perceptuais compactas, enquanto quantifica a influência relativa de prioridades de linguagem e evidências perceptuais. A estrutura introduz uma função objetivo que unifica suficiência (pontuação de insight) e indispensabilidade (pontuação de necessidade), otimizada por meio de busca gulosa sobre regiões de imagem esparsificadas para atribuição fiel e eficiente. Além da atribuição espacial, o EAGLE realiza uma análise consciente da modalidade que desembaraça em que tokens se baseiam, fornecendo interpretabilidade refinada das decisões do modelo. Experimentos extensos em MLLMs de código aberto mostram que o EAGLE supera consistentemente os métodos existentes em fidelidade, localização e diagnóstico de alucinação, enquanto requer substancialmente menos memória GPU. Esses resultados destacam sua eficácia e praticidade para avançar a interpretabilidade dos MLLMs. O código está disponível em https://github.com/RuoyuChen10/EAGLE.
English
Multimodal large language models (MLLMs) have demonstrated remarkable capabilities in aligning visual inputs with natural language outputs. Yet, the extent to which generated tokens depend on visual modalities remains poorly understood, limiting interpretability and reliability. In this work, we present EAGLE, a lightweight black-box framework for explaining autoregressive token generation in MLLMs. EAGLE attributes any selected tokens to compact perceptual regions while quantifying the relative influence of language priors and perceptual evidence. The framework introduces an objective function that unifies sufficiency (insight score) and indispensability (necessity score), optimized via greedy search over sparsified image regions for faithful and efficient attribution. Beyond spatial attribution, EAGLE performs modality-aware analysis that disentangles what tokens rely on, providing fine-grained interpretability of model decisions. Extensive experiments across open-source MLLMs show that EAGLE consistently outperforms existing methods in faithfulness, localization, and hallucination diagnosis, while requiring substantially less GPU memory. These results highlight its effectiveness and practicality for advancing the interpretability of MLLMs. The code is available at https://github.com/RuoyuChen10/EAGLE.
PDF32September 29, 2025