RynnVLA-002: Un Modelo Unificado de Visión, Lenguaje, Acción y Mundo
RynnVLA-002: A Unified Vision-Language-Action and World Model
November 21, 2025
Autores: Jun Cen, Siteng Huang, Yuqian Yuan, Hangjie Yuan, Chaohui Yu, Yuming Jiang, Jiayan Guo, Kehan Li, Hao Luo, Fan Wang, Xin Li, Deli Zhao, Hao Chen
cs.AI
Resumen
Presentamos RynnVLA-002, un modelo unificado de Visión-Lenguaje-Acción (VLA) y modelo del mundo. El modelo del mundo aprovecha las entradas de acción y visuales para predecir estados de imagen futuros, aprendiendo la física subyacente del entorno para refinar la generación de acciones. Por el contrario, el modelo VLA produce acciones subsiguientes a partir de observaciones de imagen, mejorando la comprensión visual y apoyando la generación de imágenes del modelo del mundo. El marco unificado de RynnVLA-002 permite el aprendizaje conjunto de la dinámica ambiental y la planificación de acciones. Nuestros experimentos muestran que RynnVLA-002 supera a los modelos individuales VLA y de mundo, demostrando su mejora mutua. Evaluamos RynnVLA-002 tanto en tareas de simulación como en tareas de robots del mundo real. RynnVLA-002 alcanza una tasa de éxito del 97.4% en el benchmark de simulación LIBERO sin preentrenamiento, mientras que en los experimentos reales de LeRobot, su modelo del mundo integrado aumenta la tasa de éxito general en un 50%.
English
We introduce RynnVLA-002, a unified Vision-Language-Action (VLA) and world model. The world model leverages action and visual inputs to predict future image states, learning the underlying physics of the environment to refine action generation. Conversely, the VLA model produces subsequent actions from image observations, enhancing visual understanding and supporting the world model's image generation. The unified framework of RynnVLA-002 enables joint learning of environmental dynamics and action planning. Our experiments show that RynnVLA-002 surpasses individual VLA and world models, demonstrating their mutual enhancement. We evaluate RynnVLA-002 in both simulation and real-world robot tasks. RynnVLA-002 achieves 97.4% success rate on the LIBERO simulation benchmark without pretraining, while in real-world LeRobot experiments, its integrated world model boosts the overall success rate by 50%.