Vero: Uma Receita Aberta de RL para Raciocínio Visual Geral
Vero: An Open RL Recipe for General Visual Reasoning
April 6, 2026
Autores: Gabriel Sarch, Linrong Cai, Qunzhong Wang, Haoyang Wu, Danqi Chen, Zhuang Liu
cs.AI
Resumo
O que é necessário para construir um raciocinador visual que funcione em gráficos, ciência, compreensão espacial e tarefas de resposta aberta? Os modelos visuo-linguísticos (VLMs) mais avançados mostram que um raciocínio visual tão abrangente está ao nosso alcance, mas a receita por trás deles permanece obscura, trancada em *pipelines* proprietários de aprendizagem por reforço (RL) com dados não públicos. Apresentamos Vero, uma família de VLMs totalmente abertos que iguala ou supera os modelos abertos existentes em diversas tarefas de raciocínio visual. Escalonamos dados e recompensas de RL em seis amplas categorias de tarefas, construindo o Vero-600K, um conjunto de dados com 600 mil amostras provenientes de 59 conjuntos de dados, e projetando recompensas roteadas por tarefa que lidam com formatos de resposta heterogêneos. O Vero alcança um desempenho de ponta, melhorando em 3,7 a 5,5 pontos na média em relação a quatro modelos base no VeroEval, nosso conjunto de 30 *benchmarks* desafiadores. Partindo do Qwen3-VL-8B-Instruct, o Vero supera o Qwen3-VL-8B-Thinking em 23 dos 30 *benchmarks* sem dados de pensamento proprietários adicionais. Quando treinado a partir do mesmo modelo base, o Vero-600K supera os conjuntos de dados de RL existentes em todas as categorias de tarefas. Ablações sistemáticas revelam que diferentes categorias de tarefas eliciam padrões de raciocínio qualitativamente distintos que transferem mal de forma isolada, sugerindo que a ampla cobertura de dados é o principal motor de um forte escalonamento de RL. Todos os dados, códigos e modelos são disponibilizados.
English
What does it take to build a visual reasoner that works across charts, science, spatial understanding, and open-ended tasks? The strongest vision-language models (VLMs) show such broad visual reasoning is within reach, but the recipe behind them remains unclear, locked behind proprietary reinforcement learning (RL) pipelines with non-public data. We introduce Vero, a family of fully open VLMs that matches or exceeds existing open-weight models across diverse visual reasoning tasks. We scale RL data and rewards across six broad task categories, constructing Vero-600K, a 600K-sample dataset from 59 datasets, and designing task-routed rewards that handle heterogeneous answer formats. Vero achieves state-of-the-art performance, improving over four base models by 3.7-5.5 points on average across VeroEval, our suite of 30 challenging benchmarks. Starting from Qwen3-VL-8B-Instruct, Vero outperforms Qwen3-VL-8B-Thinking on 23 of 30 benchmarks without additional proprietary thinking data. When trained from the same base model, Vero-600K exceeds existing RL datasets across task categories. Systematic ablations reveal that different task categories elicit qualitatively distinct reasoning patterns that transfer poorly in isolation, suggesting that broad data coverage is the primary driver of strong RL scaling. All data, code, and models are released.