Vero: Een Open RL-recept voor Algemeen Visueel Redeneren
Vero: An Open RL Recipe for General Visual Reasoning
April 6, 2026
Auteurs: Gabriel Sarch, Linrong Cai, Qunzhong Wang, Haoyang Wu, Danqi Chen, Zhuang Liu
cs.AI
Samenvatting
Wat is er nodig om een visuele redeneerder te bouwen die werkt voor grafieken, wetenschap, ruimtelijk inzicht en open-einde taken? De krachtigste visueel-taalmodelen (VLM's) tonen aan dat zulk breed visueel redeneren binnen handbereik ligt, maar het recept erachter blijft onduidelijk, opgesloten in propriëtaire reinforcement learning (RL) pijplijnen met niet-openbare data. Wij introduceren Vero, een familie van volledig open VLM's die prestaties evenaart of overtreft van bestaande open-weight modellen voor diverse visuele redeneertaken. Wij schalen RL-data en beloningen op over zes brede taakcategorieën, construeren Vero-600K, een dataset met 600K voorbeelden uit 59 datasets, en ontwerpen taakgerouteerde beloningen die omgaan met heterogene antwoordformaten. Vero behaalt state-of-the-art prestaties, verbetert vier basismodellen met gemiddeld 3.7-5.5 punten op VeroEval, onze reeks van 30 uitdagende benchmarks. Uitgaande van Qwen3-VL-8B-Instruct, presteert Vero beter dan Qwen3-VL-8B-Thinking op 23 van de 30 benchmarks zonder extra propriëtaire denkdata. Wanneer getraind vanuit hetzelfde basismodel, overtreft Vero-600K bestaande RL-datasets over alle taakcategorieën. Systematische ablatiestudies onthullen dat verschillende taakcategorieën kwalitatief verschillende redeneerpatronen oproepen die slecht overdraagbaar zijn in isolatie, wat suggereert dat brede datadekking de primaire drijvende kracht is voor sterke RL-schaling. Alle data, code en modellen worden vrijgegeven.
English
What does it take to build a visual reasoner that works across charts, science, spatial understanding, and open-ended tasks? The strongest vision-language models (VLMs) show such broad visual reasoning is within reach, but the recipe behind them remains unclear, locked behind proprietary reinforcement learning (RL) pipelines with non-public data. We introduce Vero, a family of fully open VLMs that matches or exceeds existing open-weight models across diverse visual reasoning tasks. We scale RL data and rewards across six broad task categories, constructing Vero-600K, a 600K-sample dataset from 59 datasets, and designing task-routed rewards that handle heterogeneous answer formats. Vero achieves state-of-the-art performance, improving over four base models by 3.7-5.5 points on average across VeroEval, our suite of 30 challenging benchmarks. Starting from Qwen3-VL-8B-Instruct, Vero outperforms Qwen3-VL-8B-Thinking on 23 of 30 benchmarks without additional proprietary thinking data. When trained from the same base model, Vero-600K exceeds existing RL datasets across task categories. Systematic ablations reveal that different task categories elicit qualitatively distinct reasoning patterns that transfer poorly in isolation, suggesting that broad data coverage is the primary driver of strong RL scaling. All data, code, and models are released.