ChatPaper.aiChatPaper

より多くの思考、より低い精度?視覚言語モデルにおける推論の二面性について

More Thought, Less Accuracy? On the Dual Nature of Reasoning in Vision-Language Models

September 30, 2025
著者: Xinyu Tian, Shu Zou, Zhaoyuan Yang, Mengqi He, Fabian Waschkowski, Lukas Wesemann, Peter Tu, Jing Zhang
cs.AI

要旨

大規模言語モデル(LLMs)において、推論能力が重要な機能として浮上しています。強化学習(RL)、特にGroup Relative Policy Optimization(GRPO)を通じて、これらのモデルは数学やコード生成といった複雑なタスクを解決できるようになりました。これらの進歩を基に、最近の研究では視覚言語モデル(VLMs)への推論能力の拡張が試みられ、多様な視覚タスクで有望な結果が得られています。しかしながら、我々の研究はマルチモーダル推論の二面性を明らかにしました:論理的推論を大幅に強化し、難しい問題の解決を促進する一方で、知覚的基盤を徐々に損ない、基本的な視覚質問での認識失敗を引き起こす可能性があります。さらなる分析を通じて、この現象を視覚的忘却に帰因させました。これは、長時間の推論がモデルに視覚入力を無視させることを引き起こすものです。これを解決するために、我々はVision-Anchored Policy Optimization(VAPO)を提案します。これは、推論プロセスを視覚的に基づいた軌道に明示的に導くシンプルかつ効果的な方法です。結果として得られたモデル、VAPO-Thinker-7Bは、視覚情報への依存を大幅に強化し、広範なベンチマークで新たな最先端の結果を達成しました。プロジェクトページ:https://xytian1008.github.io/VAPO/
English
Reasoning has emerged as a pivotal capability in Large Language Models (LLMs). Through Reinforcement Learning (RL), typically Group Relative Policy Optimization (GRPO), these models are able to solve complex tasks such as mathematics and code generation. Building on these advances, recent research has sought to extend reasoning to Vision-Language Models (VLMs), yielding promising results across diverse visual tasks. Despite this progress, our study uncovers the dual nature of multimodal reasoning: while it substantially enhances logical inference and facilitates performance on challenging problems, it may gradually impair perceptual grounding, leading to recognition failures on otherwise basic visual questions. Through further analysis, we attribute this phenomenon to visual forgetting, wherein prolonged reasoning causes the model to increasingly disregard visual input. To address this, we propose Vision-Anchored Policy Optimization (VAPO), a simple yet effective method that explicitly steers the reasoning process toward visually grounded trajectories. Our result model, VAPO-Thinker-7B, significantly strengthens the model's reliance on visual information and achieves new state-of-the-art results on a wide range of established benchmarks. Project page: https://xytian1008.github.io/VAPO/
PDF281October 1, 2025