WMPO: Оптимизация политики на основе моделей мира для моделей «зрение-язык-действие»
WMPO: World Model-based Policy Optimization for Vision-Language-Action Models
November 12, 2025
Авторы: Fangqi Zhu, Zhengyang Yan, Zicong Hong, Quanxin Shou, Xiao Ma, Song Guo
cs.AI
Аннотация
Модели Vision-Language-Action (VLA) продемонстрировали значительный потенциал для универсальной роботизированной манипуляции, однако их зависимость от экспертных демонстраций ограничивает способность обучаться на ошибках и выполнять самокоррекцию. Обучение с подкреплением (RL) решает эти проблемы за счет самоулучшающегося взаимодействия с физической средой, но страдает от высокой вычислительной сложности на реальных роботах. Мы представляем World-Model-based Policy Optimization (WMPO) — принципиальную框架 для VLA RL с он-политикой без взаимодействия с реальной средой. В отличие от широко используемых латентных мировых моделей, WMPO фокусируется на пиксельных предсказаниях, которые согласуют «воображаемые» траектории с признаками VLA, предварительно обученными на веб-масштабных изображениях. Ключевым является то, что WMPO позволяет политике выполнять он-политику GRPO, которая обеспечивает более высокую производительность по сравнению с часто используемыми методами офф-политики. Многочисленные эксперименты в симуляции и на реальном роботе показывают, что WMPO (i) существенно повышает эффективность выборки, (ii) достигает более высокой общей производительности, (iii) проявляет emergent-поведение, такое как самокоррекция, и (iv) демонстрирует robust-обобщение и способности к непрерывному обучению.
English
Vision-Language-Action (VLA) models have shown strong potential for general-purpose robotic manipulation, but their reliance on expert demonstrations limits their ability to learn from failures and perform self-corrections. Reinforcement learning (RL) addresses these through self-improving interactions with the physical environment, but suffers from high sample complexity on real robots. We introduce World-Model-based Policy Optimization (WMPO), a principled framework for on-policy VLA RL without interacting with the real environment. In contrast to widely used latent world models, WMPO focuses on pixel-based predictions that align the "imagined" trajectories with the VLA features pretrained with web-scale images. Crucially, WMPO enables the policy to perform on-policy GRPO that provides stronger performance than the often-used off-policy methods. Extensive experiments in both simulation and real-robot settings demonstrate that WMPO (i) substantially improves sample efficiency, (ii) achieves stronger overall performance, (iii) exhibits emergent behaviors such as self-correction, and (iv) demonstrates robust generalization and lifelong learning capabilities.