ChatPaper.aiChatPaper

Визуальное понимание документов и ответы на вопросы: Многоагентная структура сотрудничества с масштабированием на этапе тестирования

Visual Document Understanding and Question Answering: A Multi-Agent Collaboration Framework with Test-Time Scaling

August 5, 2025
Авторы: Xinlei Yu, Zhangquan Chen, Yudong Zhang, Shilin Lu, Ruolin Shen, Jiangning Zhang, Xiaobin Hu, Yanwei Fu, Shuicheng Yan
cs.AI

Аннотация

Существующие модели, объединяющие зрительное восприятие и язык (VLMs), будь то универсальные или специализированные, остаются ограниченными масштабом своих параметров, обладают недостаточно надежными возможностями самокоррекции и демонстрируют низкую производительность в задачах, связанных с длинными визуальными контекстами и сложными рассуждениями, что приводит к неоптимальным результатам в задачах, основанных на документах. Для решения этой проблемы мы предлагаем MACT — фреймворк многоагентного сотрудничества с масштабированием на этапе тестирования, адаптированный для визуального понимания документов и визуального ответа на вопросы (VQA). Он включает четыре отдельных агента малого масштаба, а именно агентов планирования, выполнения, оценки и ответа, с четко определенными ролями и эффективным взаимодействием. Примечательно, что агент оценки исключительно проверяет правильность и перенаправляет к предыдущим агентам для внесения исправлений, превосходя традиционные стратегии коррекции. Для дальнейшего расширения границ возможностей фреймворка мы предлагаем смешанное моделирование вознаграждений, которое балансирует способности отдельных агентов и глобальное сотрудничество, а также гибридное масштабирование на этапе тестирования для каждого агента, которое настраивает различные стратегии масштабирования в зависимости от их функций. Оцененный на тестовых наборах данных, охватывающих как задачи, основанные на документах, так и не связанные с ними, наш MACT демонстрирует превосходную производительность при меньшем масштабе параметров, не жертвуя способностями к общим и математическим задачам. Особенно он выделяется в тестовых наборах данных, связанных с длинными визуальными контекстами и сложными рассуждениями. Три варианта MACT стабильно занимают три верхние позиции по средним показателям, лидируя в 13 из 15 тестовых наборов данных. Код будет доступен по адресу: https://github.com/YU-deep/MACT.git.
English
Existing vision-language models (VLMs), whether generalists or specialists, remain constrained by their parameter scale, lack robust self-correction capabilities, and underperform in tasks involving long visual contexts and complex reasoning, resulting in suboptimal performance on document-based tasks. To address this, we propose MACT, a Multi-Agent Collaboration framework with Test-Time scaling, tailored for visual document understanding and visual question answering (VQA). It comprises four distinct small-scale agents, i.e., planning, execution, judgment, and answer agents, with clearly defined roles and effective collaboration. Notably, the judgment agent exclusively verifies correctness and redirects to prior agents for revisions, outperforming conventional correction strategies. To further expand the capability boundaries of the framework, we propose mixed reward modeling that balances agent-specific abilities and global collaboration, as well as agent-wise hybrid test-time scaling, which customizes different scaling strategies for each agent based on their functions. Evaluated on benchmarks spanning both document-based and non-document-based settings, our MACT shows superior performance with a smaller parameter scale without sacrificing the ability of general and mathematical tasks. Especially, it stands out in benchmarks involving long visual contexts and complicated reasoning. The three variants of MACT consistently hold the top three positions in average scores, leading in 13 of the 15 benchmarks. Code will be available at: https://github.com/YU-deep/MACT.git.
PDF32August 8, 2025