ChatPaper.aiChatPaper

Kijk niet slechts één keer: Naar multimodale interactieve redenering met selectieve visuele herbezoeken

Don't Look Only Once: Towards Multimodal Interactive Reasoning with Selective Visual Revisitation

May 24, 2025
Auteurs: Jiwan Chung, Junhyeok Kim, Siyeol Kim, Jaeyoung Lee, Min Soo Kim, Youngjae Yu
cs.AI

Samenvatting

We presenteren v1, een lichtgewicht uitbreiding voor Multimodale Grote Taalmodellen (MLLMs) die selectieve visuele herbeoordeling tijdens inferentie mogelijk maakt. Terwijl huidige MLLMs visuele input doorgaans slechts één keer verwerken en uitsluitend redeneren over intern geheugen, introduceert v1 een eenvoudig wijs-en-kopieer-mechanisme dat het model in staat stelt om dynamisch relevante beeldregio's op te halen gedurende het redeneerproces. Dit mechanisme breidt bestaande architecturen uit met minimale aanpassingen, waardoor contextuele toegang tot visuele tokens mogelijk wordt op basis van de evoluerende hypothesen van het model. Om deze capaciteit te trainen, construeren we v1g, een dataset van 300K multimodale redeneersporen met geïnterleefde visuele grondingsannotaties. Experimenten op drie multimodale wiskundige redeneerbenchmarks — MathVista, MathVision en MathVerse — tonen aan dat v1 consistent betere prestaties levert in vergelijking met vergelijkbare baselines, met name bij taken die fijnmazige visuele referentie en meerstapsredenering vereisen. Onze resultaten suggereren dat dynamische visuele toegang een veelbelovende richting is voor het verbeteren van gegronde multimodale redenering. Code, modellen en data zullen worden vrijgegeven om toekomstig onderzoek te ondersteunen.
English
We present v1, a lightweight extension to Multimodal Large Language Models (MLLMs) that enables selective visual revisitation during inference. While current MLLMs typically consume visual input only once and reason purely over internal memory, v1 introduces a simple point-and-copy mechanism that allows the model to dynamically retrieve relevant image regions throughout the reasoning process. This mechanism augments existing architectures with minimal modifications, enabling contextual access to visual tokens based on the model's evolving hypotheses. To train this capability, we construct v1g, a dataset of 300K multimodal reasoning traces with interleaved visual grounding annotations. Experiments on three multimodal mathematical reasoning benchmarks -- MathVista, MathVision, and MathVerse -- demonstrate that v1 consistently improves performance over comparable baselines, particularly on tasks requiring fine-grained visual reference and multi-step reasoning. Our results suggest that dynamic visual access is a promising direction for enhancing grounded multimodal reasoning. Code, models, and data will be released to support future research.
PDF362June 2, 2025