ChatPaper.aiChatPaper

TesserAct: Обучение 4D-воплощённых моделей мира

TesserAct: Learning 4D Embodied World Models

April 29, 2025
Авторы: Haoyu Zhen, Qiao Sun, Hongxin Zhang, Junyan Li, Siyuan Zhou, Yilun Du, Chuang Gan
cs.AI

Аннотация

В данной статье представлен эффективный подход к обучению новых 4D-моделей воплощённого мира, которые предсказывают динамическую эволюцию 3D-сцен во времени в ответ на действия воплощённого агента, обеспечивая как пространственную, так и временную согласованность. Мы предлагаем обучать 4D-модель мира на основе RGB-DN (RGB, глубина и нормали) видео. Это не только превосходит традиционные 2D-модели, включая детали формы, конфигурации и временные изменения в их предсказания, но также позволяет эффективно изучать точные обратные динамические модели для воплощённого агента. В частности, мы сначала расширяем существующие наборы данных видео с манипуляциями роботов, добавляя информацию о глубине и нормалях с использованием готовых моделей. Затем мы дообучаем модель генерации видео на этом аннотированном наборе данных, которая совместно предсказывает RGB-DN (RGB, глубину и нормали) для каждого кадра. Далее мы представляем алгоритм для прямого преобразования сгенерированных видео RGB, глубины и нормалей в высококачественную 4D-сцену мира. Наш метод обеспечивает временную и пространственную согласованность в предсказаниях 4D-сцен для воплощённых сценариев, позволяет синтезировать новые виды для воплощённых сред и способствует обучению стратегий, которые значительно превосходят те, что получены из предыдущих видео-моделей мира.
English
This paper presents an effective approach for learning novel 4D embodied world models, which predict the dynamic evolution of 3D scenes over time in response to an embodied agent's actions, providing both spatial and temporal consistency. We propose to learn a 4D world model by training on RGB-DN (RGB, Depth, and Normal) videos. This not only surpasses traditional 2D models by incorporating detailed shape, configuration, and temporal changes into their predictions, but also allows us to effectively learn accurate inverse dynamic models for an embodied agent. Specifically, we first extend existing robotic manipulation video datasets with depth and normal information leveraging off-the-shelf models. Next, we fine-tune a video generation model on this annotated dataset, which jointly predicts RGB-DN (RGB, Depth, and Normal) for each frame. We then present an algorithm to directly convert generated RGB, Depth, and Normal videos into a high-quality 4D scene of the world. Our method ensures temporal and spatial coherence in 4D scene predictions from embodied scenarios, enables novel view synthesis for embodied environments, and facilitates policy learning that significantly outperforms those derived from prior video-based world models.

Summary

AI-Generated Summary

PDF91April 30, 2025