ChatPaper.aiChatPaper

Не смотри только один раз: к мультимодальному интерактивному рассуждению с избирательным визуальным возвращением

Don't Look Only Once: Towards Multimodal Interactive Reasoning with Selective Visual Revisitation

May 24, 2025
Авторы: Jiwan Chung, Junhyeok Kim, Siyeol Kim, Jaeyoung Lee, Min Soo Kim, Youngjae Yu
cs.AI

Аннотация

Мы представляем v1, легковесное расширение для мультимодальных больших языковых моделей (MLLMs), которое позволяет выборочно возвращаться к визуальным данным в процессе вывода. В то время как современные MLLMs обычно обрабатывают визуальные входные данные только один раз и рассуждают исключительно на основе внутренней памяти, v1 вводит простой механизм "укажи и скопируй", позволяющий модели динамически извлекать релевантные области изображения на протяжении всего процесса рассуждения. Этот механизм дополняет существующие архитектуры с минимальными изменениями, обеспечивая контекстный доступ к визуальным токенам на основе развивающихся гипотез модели. Для обучения этой способности мы создали v1g — набор данных из 300 тысяч мультимодальных трасс рассуждений с аннотациями визуального заземления, переплетенными между собой. Эксперименты на трех мультимодальных математических бенчмарках — MathVista, MathVision и MathVerse — демонстрируют, что v1 стабильно улучшает производительность по сравнению с аналогичными базовыми моделями, особенно на задачах, требующих детального визуального анализа и многошагового рассуждения. Наши результаты показывают, что динамический доступ к визуальным данным является перспективным направлением для улучшения заземленного мультимодального рассуждения. Код, модели и данные будут опубликованы для поддержки будущих исследований.
English
We present v1, a lightweight extension to Multimodal Large Language Models (MLLMs) that enables selective visual revisitation during inference. While current MLLMs typically consume visual input only once and reason purely over internal memory, v1 introduces a simple point-and-copy mechanism that allows the model to dynamically retrieve relevant image regions throughout the reasoning process. This mechanism augments existing architectures with minimal modifications, enabling contextual access to visual tokens based on the model's evolving hypotheses. To train this capability, we construct v1g, a dataset of 300K multimodal reasoning traces with interleaved visual grounding annotations. Experiments on three multimodal mathematical reasoning benchmarks -- MathVista, MathVision, and MathVerse -- demonstrate that v1 consistently improves performance over comparable baselines, particularly on tasks requiring fine-grained visual reference and multi-step reasoning. Our results suggest that dynamic visual access is a promising direction for enhancing grounded multimodal reasoning. Code, models, and data will be released to support future research.
PDF352June 2, 2025