ChatPaper.aiChatPaper

Compreensão Visual de Documentos e Resposta a Perguntas: Um Framework de Colaboração Multiagente com Escalonamento em Tempo de Teste

Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling

August 5, 2025
Autores: Xinlei Yu, Zhangquan Chen, Yudong Zhang, Shilin Lu, Ruolin Shen, Jiangning Zhang, Xiaobin Hu, Yanwei Fu, Shuicheng Yan
cs.AI

Resumo

Os modelos visão-linguagem (VLMs) existentes, sejam generalistas ou especialistas, permanecem limitados pela escala de seus parâmetros, carecem de capacidades robustas de autocorreção e têm desempenho inferior em tarefas que envolvem contextos visuais longos e raciocínio complexo, resultando em desempenho subótimo em tarefas baseadas em documentos. Para resolver isso, propomos o MACT, uma estrutura de Colaboração Multi-Agente com Escalonamento em Tempo de Teste, projetada para compreensão visual de documentos e resposta a perguntas visuais (VQA). Ele é composto por quatro agentes distintos em pequena escala, ou seja, planejamento, execução, julgamento e resposta, com papéis claramente definidos e colaboração eficaz. Notavelmente, o agente de julgamento verifica exclusivamente a correção e redireciona para agentes anteriores para revisões, superando estratégias convencionais de correção. Para expandir ainda mais os limites de capacidade da estrutura, propomos a modelagem de recompensa mista que equilibra habilidades específicas do agente e colaboração global, bem como o escalonamento híbrido em tempo de teste por agente, que personaliza diferentes estratégias de escalonamento para cada agente com base em suas funções. Avaliado em benchmarks que abrangem configurações baseadas em documentos e não baseadas em documentos, nosso MACT mostra desempenho superior com uma escala de parâmetros menor sem sacrificar a capacidade de tarefas gerais e matemáticas. Especialmente, ele se destaca em benchmarks envolvendo contextos visuais longos e raciocínio complicado. As três variantes do MACT consistentemente ocupam as três primeiras posições em pontuações médias, liderando em 13 dos 15 benchmarks. O código estará disponível em: https://github.com/YU-deep/MACT.git.
English
Existing vision-language models (VLMs), whether generalists or specialists, remain constrained by their parameter scale, lack robust self-correction capabilities, and underperform in tasks involving long visual contexts and complex reasoning, resulting in suboptimal performance on document-based tasks. To address this, we propose MACT, a Multi-Agent Collaboration framework with Test-Time scaling, tailored for visual document understanding and visual question answering (VQA). It comprises four distinct small-scale agents, i.e., planning, execution, judgment, and answer agents, with clearly defined roles and effective collaboration. Notably, the judgment agent exclusively verifies correctness and redirects to prior agents for revisions, outperforming conventional correction strategies. To further expand the capability boundaries of the framework, we propose mixed reward modeling that balances agent-specific abilities and global collaboration, as well as agent-wise hybrid test-time scaling, which customizes different scaling strategies for each agent based on their functions. Evaluated on benchmarks spanning both document-based and non-document-based settings, our MACT shows superior performance with a smaller parameter scale without sacrificing the ability of general and mathematical tasks. Especially, it stands out in benchmarks involving long visual contexts and complicated reasoning. The three variants of MACT consistently hold the top three positions in average scores, leading in 13 of the 15 benchmarks. Code will be available at: https://github.com/YU-deep/MACT.git.
PDF32August 8, 2025