Vero: Una Ricetta RL Aperta per il Ragionamento Visivo Generale
Vero: An Open RL Recipe for General Visual Reasoning
April 6, 2026
Autori: Gabriel Sarch, Linrong Cai, Qunzhong Wang, Haoyang Wu, Danqi Chen, Zhuang Liu
cs.AI
Abstract
Cosa serve per costruire un sistema di ragionamento visivo che funzioni attraverso grafici, ambiti scientifici, comprensione spaziale e compiti aperti? I modelli visione-linguaggio (VLM) più potenti dimostrano che un ragionamento visivo così ampio è a portata di mano, ma la ricetta alla loro base rimane poco chiara, nascosta da pipeline proprietarie di apprendimento per rinforzo (RL) che utilizzano dati non pubblici. Presentiamo Vero, una famiglia di VLM completamente open che eguaglia o supera i modelli open-weight esistenti in una vasta gamma di compiti di ragionamento visivo. Scaliamo i dati e i reward dell'RL attraverso sei ampie categorie di compiti, costruendo Vero-600K, un dataset di 600.000 campioni provenienti da 59 dataset, e progettando reward instradati per compito che gestiscono formati di risposta eterogenei. Vero raggiunge prestazioni allo stato dell'arte, migliorando quattro modelli di base di 3,7-5,5 punti in media attraverso VeroEval, la nostra suite di 30 benchmark impegnativi. Partendo da Qwen3-VL-8B-Instruct, Vero supera Qwen3-VL-8B-Thinking in 23 dei 30 benchmark senza l'utilizzo di dati proprietari aggiuntivi per il "pensiero". Quando addestrato a partire dallo stesso modello base, Vero-600K supera i dataset di RL esistenti in tutte le categorie di compiti. Ablazioni sistematiche rivelano che diverse categorie di compiti suscitano pattern di ragionamento qualitativamente distinti che si trasferiscono poco se considerati in isolamento, suggerendo che la copertura dati ampia sia il fattore primario alla base di una forte scalabilità dell'RL. Tutti i dati, il codice e i modelli sono rilasciati pubblicamente.
English
What does it take to build a visual reasoner that works across charts, science, spatial understanding, and open-ended tasks? The strongest vision-language models (VLMs) show such broad visual reasoning is within reach, but the recipe behind them remains unclear, locked behind proprietary reinforcement learning (RL) pipelines with non-public data. We introduce Vero, a family of fully open VLMs that matches or exceeds existing open-weight models across diverse visual reasoning tasks. We scale RL data and rewards across six broad task categories, constructing Vero-600K, a 600K-sample dataset from 59 datasets, and designing task-routed rewards that handle heterogeneous answer formats. Vero achieves state-of-the-art performance, improving over four base models by 3.7-5.5 points on average across VeroEval, our suite of 30 challenging benchmarks. Starting from Qwen3-VL-8B-Instruct, Vero outperforms Qwen3-VL-8B-Thinking on 23 of 30 benchmarks without additional proprietary thinking data. When trained from the same base model, Vero-600K exceeds existing RL datasets across task categories. Systematic ablations reveal that different task categories elicit qualitatively distinct reasoning patterns that transfer poorly in isolation, suggesting that broad data coverage is the primary driver of strong RL scaling. All data, code, and models are released.