ChatPaper.aiChatPaper

RobotArena infinito: Evaluación Escalable de Robots mediante Traducción de Real a Sim

RobotArena infty: Scalable Robot Benchmarking via Real-to-Sim Translation

October 27, 2025
Autores: Yash Jangir, Yidi Zhang, Kashu Yamazaki, Chenyu Zhang, Kuan-Hsun Tu, Tsung-Wei Ke, Lei Ke, Yonatan Bisk, Katerina Fragkiadaki
cs.AI

Resumen

La búsqueda de generalistas robóticos - agentes instruíbles capaces de realizar diversas tareas en diversos entornos - exige una evaluación rigurosa y escalable. Sin embargo, las pruebas en el mundo real de las políticas de robots siguen estando fundamentalmente limitadas: son intensivas en mano de obra, lentas, inseguras a gran escala y difíciles de reproducir. Los puntos de referencia de simulación existentes están igualmente limitados, ya que entrenan y prueban políticas dentro de los mismos dominios sintéticos y no pueden evaluar modelos entrenados a partir de demostraciones del mundo real o entornos de simulación alternativos. A medida que las políticas se expanden en alcance y complejidad, estas barreras solo se intensifican, ya que definir el "éxito" en robótica a menudo depende de juicios humanos matizados sobre la calidad de la ejecución. En este artículo, presentamos un nuevo marco de evaluación que supera estos desafíos trasladando la evaluación de VLA a entornos simulados a gran escala aumentados con retroalimentación humana en línea. Aprovechando los avances en modelos de visión y lenguaje, el modelado generativo 2D a 3D y el renderizado diferenciable, nuestro enfoque convierte automáticamente las demostraciones en video de conjuntos de datos de robots ampliamente utilizados en contrapartes simuladas. Dentro de estos gemelos digitales, evaluamos las políticas de VLA utilizando tanto puntuación automatizada guiada por VLM como juicios de preferencia humana escalables recopilados de trabajadores crowdsourcing, transformando la participación humana de la tediosa configuración de escenas, reinicio y supervisión de seguridad en comparaciones de preferencia livianas. Para medir la robustez, perturbamos sistemáticamente los entornos simulados a lo largo de múltiples ejes, como texturas y ubicaciones de objetos, sometiendo a prueba de estrés la generalización de políticas bajo variación controlada. El resultado es un punto de referencia en continua evolución, reproducible y escalable para políticas de manipulación robótica entrenadas en el mundo real, abordando una capacidad crítica faltante en el panorama actual de la robótica.
English
The pursuit of robot generalists - instructable agents capable of performing diverse tasks across diverse environments - demands rigorous and scalable evaluation. Yet real-world testing of robot policies remains fundamentally constrained: it is labor-intensive, slow, unsafe at scale, and difficult to reproduce. Existing simulation benchmarks are similarly limited, as they train and test policies within the same synthetic domains and cannot assess models trained from real-world demonstrations or alternative simulation environments. As policies expand in scope and complexity, these barriers only intensify, since defining "success" in robotics often hinges on nuanced human judgments of execution quality. In this paper, we introduce a new benchmarking framework that overcomes these challenges by shifting VLA evaluation into large-scale simulated environments augmented with online human feedback. Leveraging advances in vision-language models, 2D-to-3D generative modeling, and differentiable rendering, our approach automatically converts video demonstrations from widely used robot datasets into simulated counterparts. Within these digital twins, we assess VLA policies using both automated VLM-guided scoring and scalable human preference judgments collected from crowdworkers, transforming human involvement from tedious scene setup, resetting, and safety supervision into lightweight preference comparisons. To measure robustness, we systematically perturb simulated environments along multiple axes, such as textures and object placements, stress-testing policy generalization under controlled variation. The result is a continuously evolving, reproducible, and scalable benchmark for real-world trained robot manipulation policies, addressing a critical missing capability in today's robotics landscape.
PDF81December 31, 2025