ChatPaper.aiChatPaper

Apprentissage des dynamiques vidéo d'actions réelles avec une autorégression masquée hétérogène

Learning Real-World Action-Video Dynamics with Heterogeneous Masked Autoregression

February 6, 2025
Auteurs: Lirui Wang, Kevin Zhao, Chaoqi Liu, Xinlei Chen
cs.AI

Résumé

Nous proposons l'Autorégression Masquée Hétérogène (HMA) pour modéliser la dynamique des vidéos d'action afin de générer des données de haute qualité et d'évaluer le développement de l'apprentissage robotique à grande échelle. La construction de modèles et de politiques interactifs de monde vidéo pour la robotique est difficile en raison du défi de gérer des environnements divers tout en maintenant une efficacité computationnelle pour fonctionner en temps réel. HMA utilise un pré-entraînement hétérogène à partir d'observations et de séquences d'actions à travers différents incarnations robotiques, domaines et tâches. HMA utilise l'autorégression masquée pour générer des jetons quantifiés ou doux pour les prédictions vidéo. Notre approche atteint une meilleure fidélité visuelle et une meilleure contrôlabilité que les modèles précédents de génération de vidéos robotiques, avec une vitesse 15 fois plus rapide dans le monde réel. Après le post-entraînement, ce modèle peut être utilisé comme simulateur vidéo à partir d'entrées d'actions de bas niveau pour évaluer les politiques et générer des données synthétiques. Consultez ce lien https://liruiw.github.io/hma pour plus d'informations.
English
We propose Heterogeneous Masked Autoregression (HMA) for modeling action-video dynamics to generate high-quality data and evaluation in scaling robot learning. Building interactive video world models and policies for robotics is difficult due to the challenge of handling diverse settings while maintaining computational efficiency to run in real time. HMA uses heterogeneous pre-training from observations and action sequences across different robotic embodiments, domains, and tasks. HMA uses masked autoregression to generate quantized or soft tokens for video predictions. \ourshort achieves better visual fidelity and controllability than the previous robotic video generation models with 15 times faster speed in the real world. After post-training, this model can be used as a video simulator from low-level action inputs for evaluating policies and generating synthetic data. See this link https://liruiw.github.io/hma for more information.

Summary

AI-Generated Summary

PDF63February 7, 2025