ChatPaper.aiChatPaper

Vero : Une Méthode RL Ouverte pour le Raisonnement Visuel Général

Vero: An Open RL Recipe for General Visual Reasoning

April 6, 2026
Auteurs: Gabriel Sarch, Linrong Cai, Qunzhong Wang, Haoyang Wu, Danqi Chen, Zhuang Liu
cs.AI

Résumé

Que faut-il pour construire un système de raisonnement visuel fonctionnant sur les graphiques, les sciences, la compréhension spatiale et les tâches ouvertes ? Les modèles vision-langage (VLM) les plus performants montrent qu'un raisonnement visuel aussi étendu est à portée, mais la recette derrière eux reste obscure, verrouillée dans des pipelines d'apprentissage par renforcement (RL) propriétaires utilisant des données non publiques. Nous présentons Vero, une famille de VLM entièrement ouverts qui égalent ou surpassent les modèles open-weight existants sur une grande variété de tâches de raisonnement visuel. Nous avons mis à l'échelle les données et les récompenses de RL sur six grandes catégories de tâches, en construisant Vero-600K, un jeu de données de 600 000 échantillons issus de 59 ensembles de données, et en concevant des récompenses routées par tâche qui gèrent des formats de réponse hétérogènes. Vero atteint des performances de pointe, améliorant quatre modèles de base de 3,7 à 5,5 points en moyenne sur VeroEval, notre suite de 30 benchmarks exigeants. En partant de Qwen3-VL-8B-Instruct, Vero surpasse Qwen3-VL-8B-Thinking sur 23 des 30 benchmarks sans données de pensée propriétaires supplémentaires. Lorsqu'il est entraîné à partir du même modèle de base, Vero-600K surpasse les ensembles de données de RL existants across toutes les catégories de tâches. Des ablations systématiques révèlent que différentes catégories de tâches suscitent des schémas de raisonnement qualitativement distincts qui se transfèrent mal de manière isolée, suggérant que la couverture étendue des données est le principal moteur d'une forte mise à l'échelle par RL. Toutes les données, le code et les modèles sont publiés.
English
What does it take to build a visual reasoner that works across charts, science, spatial understanding, and open-ended tasks? The strongest vision-language models (VLMs) show such broad visual reasoning is within reach, but the recipe behind them remains unclear, locked behind proprietary reinforcement learning (RL) pipelines with non-public data. We introduce Vero, a family of fully open VLMs that matches or exceeds existing open-weight models across diverse visual reasoning tasks. We scale RL data and rewards across six broad task categories, constructing Vero-600K, a 600K-sample dataset from 59 datasets, and designing task-routed rewards that handle heterogeneous answer formats. Vero achieves state-of-the-art performance, improving over four base models by 3.7-5.5 points on average across VeroEval, our suite of 30 challenging benchmarks. Starting from Qwen3-VL-8B-Instruct, Vero outperforms Qwen3-VL-8B-Thinking on 23 of 30 benchmarks without additional proprietary thinking data. When trained from the same base model, Vero-600K exceeds existing RL datasets across task categories. Systematic ablations reveal that different task categories elicit qualitatively distinct reasoning patterns that transfer poorly in isolation, suggesting that broad data coverage is the primary driver of strong RL scaling. All data, code, and models are released.
PDF170April 8, 2026