ChatPaper.aiChatPaper

TesserAct: Aprendizaje de Modelos Mundiales Embebidos en 4D

TesserAct: Learning 4D Embodied World Models

April 29, 2025
Autores: Haoyu Zhen, Qiao Sun, Hongxin Zhang, Junyan Li, Siyuan Zhou, Yilun Du, Chuang Gan
cs.AI

Resumen

Este artículo presenta un enfoque efectivo para aprender modelos novedosos de mundos encarnados en 4D, los cuales predicen la evolución dinámica de escenas 3D a lo largo del tiempo en respuesta a las acciones de un agente encarnado, proporcionando consistencia tanto espacial como temporal. Proponemos aprender un modelo de mundo 4D entrenando con videos RGB-DN (RGB, profundidad y normales). Esto no solo supera a los modelos 2D tradicionales al incorporar detalles de forma, configuración y cambios temporales en sus predicciones, sino que también nos permite aprender de manera efectiva modelos dinámicos inversos precisos para un agente encarnado. Específicamente, primero extendemos los conjuntos de datos existentes de videos de manipulación robótica con información de profundidad y normales utilizando modelos disponibles. Luego, ajustamos un modelo de generación de videos en este conjunto de datos anotado, el cual predice conjuntamente RGB-DN (RGB, profundidad y normales) para cada fotograma. Posteriormente, presentamos un algoritmo para convertir directamente los videos generados de RGB, profundidad y normales en una escena 4D de alta calidad del mundo. Nuestro método asegura coherencia temporal y espacial en las predicciones de escenas 4D a partir de escenarios encarnados, permite la síntesis de vistas novedosas para entornos encarnados y facilita el aprendizaje de políticas que superan significativamente a las derivadas de modelos de mundo basados en videos anteriores.
English
This paper presents an effective approach for learning novel 4D embodied world models, which predict the dynamic evolution of 3D scenes over time in response to an embodied agent's actions, providing both spatial and temporal consistency. We propose to learn a 4D world model by training on RGB-DN (RGB, Depth, and Normal) videos. This not only surpasses traditional 2D models by incorporating detailed shape, configuration, and temporal changes into their predictions, but also allows us to effectively learn accurate inverse dynamic models for an embodied agent. Specifically, we first extend existing robotic manipulation video datasets with depth and normal information leveraging off-the-shelf models. Next, we fine-tune a video generation model on this annotated dataset, which jointly predicts RGB-DN (RGB, Depth, and Normal) for each frame. We then present an algorithm to directly convert generated RGB, Depth, and Normal videos into a high-quality 4D scene of the world. Our method ensures temporal and spatial coherence in 4D scene predictions from embodied scenarios, enables novel view synthesis for embodied environments, and facilitates policy learning that significantly outperforms those derived from prior video-based world models.

Summary

AI-Generated Summary

PDF91April 30, 2025