ChatPaper.aiChatPaper

Open Vision Reasoner: Übertragung linguistischer kognitiver Verhaltensweisen für visuelles Schließen

Open Vision Reasoner: Transferring Linguistic Cognitive Behavior for Visual Reasoning

July 7, 2025
papers.authors: Yana Wei, Liang Zhao, Jianjian Sun, Kangheng Lin, Jisheng Yin, Jingcheng Hu, Yinmin Zhang, En Yu, Haoran Lv, Zejia Weng, Jia Wang, Chunrui Han, Yuang Peng, Qi Han, Zheng Ge, Xiangyu Zhang, Daxin Jiang, Vishal M. Patel
cs.AI

papers.abstract

Die bemerkenswerte Fähigkeit zur logischen Argumentation von großen Sprachmodellen (LLMs) resultiert aus kognitiven Verhaltensweisen, die durch Verstärkung mit überprüfbaren Belohnungen entstehen. Diese Arbeit untersucht, wie dieses Prinzip auf multimodale LLMs (MLLMs) übertragen werden kann, um fortgeschrittene visuelle Argumentation zu ermöglichen. Wir stellen ein zweistufiges Paradigma vor, das auf Qwen2.5-VL-7B basiert: ein umfangreiches linguistisches Cold-Start-Finetuning, gefolgt von multimodalem Reinforcement Learning (RL) über fast 1.000 Schritte, das alle bisherigen Open-Source-Bemühungen in Bezug auf den Umfang übertrifft. Diese bahnbrechende Arbeit offenbart drei grundlegende Erkenntnisse: 1) Der Verhaltenstransfer tritt überraschend früh im Cold Start aufgrund linguistischer mentaler Bilder auf. 2) Der Cold Start speichert visuelle Verhaltensweisen weitgehend, während RL kritisch effektive Muster erkennt und hochskaliert. 3) Der Transfer begünstigt strategisch hochwertige Verhaltensweisen wie visuelle Reflexion. Unser resultierendes Modell, Open-Vision-Reasoner (OVR), erzielt Spitzenleistungen in einer Reihe von Argumentations-Benchmarks, darunter 95,3 % auf MATH500, 51,8 % auf MathVision und 54,6 % auf MathVerse. Wir veröffentlichen unser Modell, die Daten und die Trainingsdynamik, um die Entwicklung leistungsfähigerer, verhaltensangepasster multimodaler Argumentationssysteme zu fördern.
English
The remarkable reasoning capability of large language models (LLMs) stems from cognitive behaviors that emerge through reinforcement with verifiable rewards. This work investigates how to transfer this principle to Multimodal LLMs (MLLMs) to unlock advanced visual reasoning. We introduce a two-stage paradigm built on Qwen2.5-VL-7B: a massive linguistic cold-start fine-tuning, followed by multimodal reinforcement learning (RL) spanning nearly 1,000 steps, surpassing all previous open-source efforts in scale. This pioneering work reveals three fundamental insights: 1) Behavior transfer emerges surprisingly early in cold start due to linguistic mental imagery. 2) Cold start broadly memorizes visual behaviors, while RL critically discerns and scales up effective patterns. 3) Transfer strategically favors high-utility behaviors such as visual reflection. Our resulting model, Open-Vision-Reasoner (OVR), achieves state-of-the-art performance on a suite of reasoning benchmarks, including 95.3% on MATH500, 51.8% on MathVision and 54.6% on MathVerse. We release our model, data, and training dynamics to catalyze the development of more capable, behavior-aligned multimodal reasoners.
PDF661July 14, 2025