ChatPaper.aiChatPaper

Più Pensiero, Meno Precisione? Sulla Natura Duale del Ragionamento nei Modelli Visione-Linguaggio

More Thought, Less Accuracy? On the Dual Nature of Reasoning in Vision-Language Models

September 30, 2025
Autori: Xinyu Tian, Shu Zou, Zhaoyuan Yang, Mengqi He, Fabian Waschkowski, Lukas Wesemann, Peter Tu, Jing Zhang
cs.AI

Abstract

Il ragionamento è emerso come una capacità fondamentale nei Modelli Linguistici di Grande Scala (LLMs). Attraverso l'Apprendimento per Rinforzo (Reinforcement Learning, RL), tipicamente l'Ottimizzazione delle Politiche Relative al Gruppo (Group Relative Policy Optimization, GRPO), questi modelli sono in grado di risolvere compiti complessi come la matematica e la generazione di codice. Basandosi su questi progressi, ricerche recenti hanno cercato di estendere il ragionamento ai Modelli Visivo-Linguistici (Vision-Language Models, VLMs), ottenendo risultati promettenti in una vasta gamma di compiti visivi. Nonostante questi avanzamenti, il nostro studio rivela la natura duale del ragionamento multimodale: sebbene migliori sostanzialmente l'inferenza logica e faciliti le prestazioni su problemi complessi, può gradualmente compromettere il radicamento percettivo, portando a fallimenti nel riconoscimento di domande visive altrimenti basilari. Attraverso un'ulteriore analisi, attribuiamo questo fenomeno al dimenticare visivo, in cui un ragionamento prolungato induce il modello a trascurare sempre più l'input visivo. Per affrontare questo problema, proponiamo l'Ottimizzazione delle Politiche Ancorate alla Visione (Vision-Anchored Policy Optimization, VAPO), un metodo semplice ma efficace che orienta esplicitamente il processo di ragionamento verso traiettorie radicate visivamente. Il nostro modello risultante, VAPO-Thinker-7B, rafforza significativamente la dipendenza del modello dalle informazioni visive e raggiunge nuovi risultati all'avanguardia su una vasta gamma di benchmark consolidati. Pagina del progetto: https://xytian1008.github.io/VAPO/
English
Reasoning has emerged as a pivotal capability in Large Language Models (LLMs). Through Reinforcement Learning (RL), typically Group Relative Policy Optimization (GRPO), these models are able to solve complex tasks such as mathematics and code generation. Building on these advances, recent research has sought to extend reasoning to Vision-Language Models (VLMs), yielding promising results across diverse visual tasks. Despite this progress, our study uncovers the dual nature of multimodal reasoning: while it substantially enhances logical inference and facilitates performance on challenging problems, it may gradually impair perceptual grounding, leading to recognition failures on otherwise basic visual questions. Through further analysis, we attribute this phenomenon to visual forgetting, wherein prolonged reasoning causes the model to increasingly disregard visual input. To address this, we propose Vision-Anchored Policy Optimization (VAPO), a simple yet effective method that explicitly steers the reasoning process toward visually grounded trajectories. Our result model, VAPO-Thinker-7B, significantly strengthens the model's reliance on visual information and achieves new state-of-the-art results on a wide range of established benchmarks. Project page: https://xytian1008.github.io/VAPO/
PDF773October 1, 2025