WMPO: Weltmodell-basierte Politikoptimierung für Vision-Sprache-Handlung-Modelle
WMPO: World Model-based Policy Optimization for Vision-Language-Action Models
November 12, 2025
papers.authors: Fangqi Zhu, Zhengyang Yan, Zicong Hong, Quanxin Shou, Xiao Ma, Song Guo
cs.AI
papers.abstract
Vision-Language-Action (VLA)-Modelle haben ein großes Potenzial für universelle Robotermanipulation gezeigt, doch ihre Abhängigkeit von Experten-Demonstrationen schränkt ihre Fähigkeit ein, aus Fehlern zu lernen und Selbstkorrekturen durchzuführen. Reinforcement Learning (RL) adressiert diese Probleme durch selbstverbessernde Interaktionen mit der physikalischen Umgebung, leidet jedoch unter hoher Sample-Komplexität auf realen Robotern. Wir stellen World-Model-based Policy Optimization (WMPO) vor, einen prinzipienbasierten Rahmen für On-Policy-VLA-RL ohne Interaktion mit der realen Umgebung. Im Gegensatz zu weit verbreiteten latenten Weltmodellen konzentriert sich WMPO auf pixelbasierte Vorhersagen, die die "imaginierten" Trajektorien mit den auf Web-Scale-Bildern vortrainierten VLA-Merkmalen in Einklang bringen. Entscheidend ist, dass WMPO der Policy ermöglicht, On-Policy-GRPO durchzuführen, was eine höhere Leistung bietet als die häufig verwendeten Off-Policy-Methoden. Umfangreiche Experimente in Simulations- und Echtzeit-Roboterumgebungen zeigen, dass WMPO (i) die Sample-Effizienz erheblich verbessert, (ii) eine stärkere Gesamtleistung erzielt, (iii) emergente Verhaltensweisen wie Selbstkorrektur zeigt und (iv) robuste Generalisierungs- und Lebenslanges-Lernen-Fähigkeiten demonstriert.
English
Vision-Language-Action (VLA) models have shown strong potential for general-purpose robotic manipulation, but their reliance on expert demonstrations limits their ability to learn from failures and perform self-corrections. Reinforcement learning (RL) addresses these through self-improving interactions with the physical environment, but suffers from high sample complexity on real robots. We introduce World-Model-based Policy Optimization (WMPO), a principled framework for on-policy VLA RL without interacting with the real environment. In contrast to widely used latent world models, WMPO focuses on pixel-based predictions that align the "imagined" trajectories with the VLA features pretrained with web-scale images. Crucially, WMPO enables the policy to perform on-policy GRPO that provides stronger performance than the often-used off-policy methods. Extensive experiments in both simulation and real-robot settings demonstrate that WMPO (i) substantially improves sample efficiency, (ii) achieves stronger overall performance, (iii) exhibits emergent behaviors such as self-correction, and (iv) demonstrates robust generalization and lifelong learning capabilities.