TesserAct: Обучение 4D-воплощённых моделей мира
TesserAct: Learning 4D Embodied World Models
April 29, 2025
Авторы: Haoyu Zhen, Qiao Sun, Hongxin Zhang, Junyan Li, Siyuan Zhou, Yilun Du, Chuang Gan
cs.AI
Аннотация
В данной статье представлен эффективный подход к обучению новых 4D-моделей воплощённого мира, которые предсказывают динамическую эволюцию 3D-сцен во времени в ответ на действия воплощённого агента, обеспечивая как пространственную, так и временную согласованность. Мы предлагаем обучать 4D-модель мира на основе RGB-DN (RGB, глубина и нормали) видео. Это не только превосходит традиционные 2D-модели, включая детали формы, конфигурации и временные изменения в их предсказания, но также позволяет эффективно изучать точные обратные динамические модели для воплощённого агента. В частности, мы сначала расширяем существующие наборы данных видео с манипуляциями роботов, добавляя информацию о глубине и нормалях с использованием готовых моделей. Затем мы дообучаем модель генерации видео на этом аннотированном наборе данных, которая совместно предсказывает RGB-DN (RGB, глубину и нормали) для каждого кадра. Далее мы представляем алгоритм для прямого преобразования сгенерированных видео RGB, глубины и нормалей в высококачественную 4D-сцену мира. Наш метод обеспечивает временную и пространственную согласованность в предсказаниях 4D-сцен для воплощённых сценариев, позволяет синтезировать новые виды для воплощённых сред и способствует обучению стратегий, которые значительно превосходят те, что получены из предыдущих видео-моделей мира.
English
This paper presents an effective approach for learning novel 4D embodied
world models, which predict the dynamic evolution of 3D scenes over time in
response to an embodied agent's actions, providing both spatial and temporal
consistency. We propose to learn a 4D world model by training on RGB-DN (RGB,
Depth, and Normal) videos. This not only surpasses traditional 2D models by
incorporating detailed shape, configuration, and temporal changes into their
predictions, but also allows us to effectively learn accurate inverse dynamic
models for an embodied agent. Specifically, we first extend existing robotic
manipulation video datasets with depth and normal information leveraging
off-the-shelf models. Next, we fine-tune a video generation model on this
annotated dataset, which jointly predicts RGB-DN (RGB, Depth, and Normal) for
each frame. We then present an algorithm to directly convert generated RGB,
Depth, and Normal videos into a high-quality 4D scene of the world. Our method
ensures temporal and spatial coherence in 4D scene predictions from embodied
scenarios, enables novel view synthesis for embodied environments, and
facilitates policy learning that significantly outperforms those derived from
prior video-based world models.Summary
AI-Generated Summary