Vero: Una Receta de RL Abierta para el Razonamiento Visual General
Vero: An Open RL Recipe for General Visual Reasoning
April 6, 2026
Autores: Gabriel Sarch, Linrong Cai, Qunzhong Wang, Haoyang Wu, Danqi Chen, Zhuang Liu
cs.AI
Resumen
¿Qué se necesita para construir un razonador visual que funcione en gráficos, ciencia, comprensión espacial y tareas de respuesta abierta? Los modelos de visión y lenguaje (VLM) más potentes demuestran que un razonamiento visual tan amplio está al alcance, pero la receta detrás de ellos sigue sin estar clara, encapsulada en pipelines propietarios de aprendizaje por refuerzo (RL) que utilizan datos no públicos. Presentamos Vero, una familia de VLMs completamente abiertos que iguala o supera a los modelos de pesos abiertos existentes en diversas tareas de razonamiento visual. Escalamos los datos y las recompensas de RL en seis amplias categorías de tareas, construyendo Vero-600K, un conjunto de datos de 600.000 muestras procedentes de 59 conjuntos de datos, y diseñando recompensas encaminadas por tarea que manejan formatos de respuesta heterogéneos. Vero logra un rendimiento de vanguardia, mejorando sobre cuatro modelos base en un promedio de 3.7-5.5 puntos en VeroEval, nuestra suite de 30 benchmarks desafiantes. Partiendo de Qwen3-VL-8B-Instruct, Vero supera a Qwen3-VL-8B-Thinking en 23 de los 30 benchmarks sin necesidad de datos de pensamiento propietarios adicionales. Cuando se entrena a partir del mismo modelo base, Vero-600K supera a los conjuntos de datos de RL existentes en todas las categorías de tareas. Las ablaciones sistemáticas revelan que diferentes categorías de tareas provocan patrones de razonamiento cualitativamente distintos que se transfieren pobremente de forma aislada, lo que sugiere que la amplia cobertura de datos es el principal impulsor de un escalado robusto de RL. Todos los datos, código y modelos son publicados.
English
What does it take to build a visual reasoner that works across charts, science, spatial understanding, and open-ended tasks? The strongest vision-language models (VLMs) show such broad visual reasoning is within reach, but the recipe behind them remains unclear, locked behind proprietary reinforcement learning (RL) pipelines with non-public data. We introduce Vero, a family of fully open VLMs that matches or exceeds existing open-weight models across diverse visual reasoning tasks. We scale RL data and rewards across six broad task categories, constructing Vero-600K, a 600K-sample dataset from 59 datasets, and designing task-routed rewards that handle heterogeneous answer formats. Vero achieves state-of-the-art performance, improving over four base models by 3.7-5.5 points on average across VeroEval, our suite of 30 challenging benchmarks. Starting from Qwen3-VL-8B-Instruct, Vero outperforms Qwen3-VL-8B-Thinking on 23 of 30 benchmarks without additional proprietary thinking data. When trained from the same base model, Vero-600K exceeds existing RL datasets across task categories. Systematic ablations reveal that different task categories elicit qualitatively distinct reasoning patterns that transfer poorly in isolation, suggesting that broad data coverage is the primary driver of strong RL scaling. All data, code, and models are released.