ChatPaper.aiChatPaper

VL-Cogito: Progressives Curriculum-Reinforcement-Learning für fortgeschrittenes multimodales Denken

VL-Cogito: Progressive Curriculum Reinforcement Learning for Advanced Multimodal Reasoning

July 30, 2025
papers.authors: Ruifeng Yuan, Chenghao Xiao, Sicong Leng, Jianyu Wang, Long Li, Weiwen Xu, Hou Pong Chan, Deli Zhao, Tingyang Xu, Zhongyu Wei, Hao Zhang, Yu Rong
cs.AI

papers.abstract

Reinforcement Learning hat seine Wirksamkeit bei der Verbesserung der Denkfähigkeiten großer Sprachmodelle unter Beweis gestellt. Jüngste Forschungsbemühungen haben dieses Paradigma zunehmend auf multimodale Denkaufgaben ausgeweitet. Aufgrund der inhärenten Komplexität und Vielfalt multimodaler Aufgaben, insbesondere in Bezug auf semantische Inhalte und Problemformulierungen, zeigen bestehende Modelle oft instabile Leistungen über verschiedene Domänen und Schwierigkeitsgrade hinweg. Um diese Einschränkungen zu überwinden, schlagen wir VL-Cogito vor, ein fortschrittliches multimodales Denkmodell, das durch ein neuartiges mehrstufiges Progressive Curriculum Reinforcement Learning (PCuRL)-Framework trainiert wird. PCuRL führt das Modell systematisch durch Aufgaben mit schrittweise steigendem Schwierigkeitsgrad und verbessert so erheblich seine Denkfähigkeiten in verschiedenen multimodalen Kontexten. Das Framework führt zwei Schlüsselinnovationen ein: (1) einen Online-Schwierigkeitsgrad-Soft-Weighting-Mechanismus, der die Trainingsschwierigkeit dynamisch über aufeinanderfolgende RL-Trainingsphasen hinweg anpasst; und (2) einen dynamischen Längenbelohnungsmechanismus, der das Modell dazu anregt, die Länge seines Denkpfads adaptiv entsprechend der Aufgabenkomplexität zu regulieren und so die Denkeffizienz mit der Korrektheit in Einklang zu bringen. Experimentelle Auswertungen zeigen, dass VL-Cogito durchweg mit bestehenden denkorientierten Modellen auf Mainstream-Multimodal-Benchmarks in den Bereichen Mathematik, Naturwissenschaften, Logik und allgemeinem Verständnis mithält oder diese übertrifft, was die Wirksamkeit unseres Ansatzes bestätigt.
English
Reinforcement learning has proven its effectiveness in enhancing the reasoning capabilities of large language models. Recent research efforts have progressively extended this paradigm to multimodal reasoning tasks. Due to the inherent complexity and diversity of multimodal tasks, especially in semantic content and problem formulations, existing models often exhibit unstable performance across various domains and difficulty levels. To address these limitations, we propose VL-Cogito, an advanced multimodal reasoning model trained via a novel multi-stage Progressive Curriculum Reinforcement Learning (PCuRL) framework. PCuRL systematically guides the model through tasks of gradually increasing difficulty, substantially improving its reasoning abilities across diverse multimodal contexts. The framework introduces two key innovations: (1) an online difficulty soft weighting mechanism, dynamically adjusting training difficulty across successive RL training stages; and (2) a dynamic length reward mechanism, which encourages the model to adaptively regulate its reasoning path length according to task complexity, thus balancing reasoning efficiency with correctness. Experimental evaluations demonstrate that VL-Cogito consistently matches or surpasses existing reasoning-oriented models across mainstream multimodal benchmarks spanning mathematics, science, logic, and general understanding, validating the effectiveness of our approach.
PDF363July 31, 2025