RynnVLA-002: Единая модель «Ви́дение–Язык–Действие» и модель мира
RynnVLA-002: A Unified Vision-Language-Action and World Model
November 21, 2025
Авторы: Jun Cen, Siteng Huang, Yuqian Yuan, Hangjie Yuan, Chaohui Yu, Yuming Jiang, Jiayan Guo, Kehan Li, Hao Luo, Fan Wang, Xin Li, Deli Zhao, Hao Chen
cs.AI
Аннотация
Мы представляем RynnVLA-002 — унифицированную модель «Видение-Язык-Действие» (VLA) и мировую модель. Мировая модель использует действия и визуальные входные данные для прогнозирования будущих состояний изображения, изучая фундаментальную физику окружающей среды для уточнения генерации действий. С другой стороны, модель VLA вырабатывает последующие действия на основе визуальных наблюдений, улучшая зрительное понимание и поддерживая генерацию изображений в мировой модели. Унифицированная архитектура RynnVLA-002 позволяет осуществлять совместное изучение динамики среды и планирования действий. Наши эксперименты показывают, что RynnVLA-002 превосходит отдельные модели VLA и мировые модели, демонстрируя их взаимное усиление. Мы оцениваем RynnVLA-002 как в симуляционных, так и в реальных роботизированных задачах. RynnVLA-002 достигает 97,4% успеха на симуляционном бенчмарке LIBERO без предварительного обучения, в то время как в реальных экспериментах LeRobot её интегрированная мировая модель повышает общий процент успеха на 50%.
English
We introduce RynnVLA-002, a unified Vision-Language-Action (VLA) and world model. The world model leverages action and visual inputs to predict future image states, learning the underlying physics of the environment to refine action generation. Conversely, the VLA model produces subsequent actions from image observations, enhancing visual understanding and supporting the world model's image generation. The unified framework of RynnVLA-002 enables joint learning of environmental dynamics and action planning. Our experiments show that RynnVLA-002 surpasses individual VLA and world models, demonstrating their mutual enhancement. We evaluate RynnVLA-002 in both simulation and real-world robot tasks. RynnVLA-002 achieves 97.4% success rate on the LIBERO simulation benchmark without pretraining, while in real-world LeRobot experiments, its integrated world model boosts the overall success rate by 50%.