ChatPaper.aiChatPaper

GEN3C: Generación de videos consistentes con el mundo 3D y control preciso de cámara

GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control

March 5, 2025
Autores: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao
cs.AI

Resumen

Presentamos GEN3C, un modelo generativo de video con Control Preciso de Cámara y Consistencia Temporal 3D. Los modelos de video anteriores ya generan videos realistas, pero tienden a aprovechar poca información 3D, lo que lleva a inconsistencias, como objetos que aparecen y desaparecen. El control de cámara, si se implementa, es impreciso, porque los parámetros de la cámara son meras entradas a la red neuronal, que luego debe inferir cómo el video depende de la cámara. En contraste, GEN3C está guiado por un caché 3D: nubes de puntos obtenidas al predecir la profundidad píxel por píxel de imágenes semilla o fotogramas previamente generados. Al generar los siguientes fotogramas, GEN3C se condiciona en las representaciones 2D del caché 3D con la nueva trayectoria de cámara proporcionada por el usuario. Esto significa que GEN3C no tiene que recordar lo que generó previamente ni inferir la estructura de la imagen a partir de la pose de la cámara. En su lugar, el modelo puede concentrar todo su poder generativo en regiones no observadas previamente, así como avanzar el estado de la escena al siguiente fotograma. Nuestros resultados demuestran un control de cámara más preciso que trabajos anteriores, así como resultados de vanguardia en la síntesis de nuevas vistas con vistas escasas, incluso en escenarios desafiantes como escenas de conducción y video dinámico monocular. Los resultados se aprecian mejor en videos. ¡Visita nuestra página web! https://research.nvidia.com/labs/toronto-ai/GEN3C/
English
We present GEN3C, a generative video model with precise Camera Control and temporal 3D Consistency. Prior video models already generate realistic videos, but they tend to leverage little 3D information, leading to inconsistencies, such as objects popping in and out of existence. Camera control, if implemented at all, is imprecise, because camera parameters are mere inputs to the neural network which must then infer how the video depends on the camera. In contrast, GEN3C is guided by a 3D cache: point clouds obtained by predicting the pixel-wise depth of seed images or previously generated frames. When generating the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with the new camera trajectory provided by the user. Crucially, this means that GEN3C neither has to remember what it previously generated nor does it have to infer the image structure from the camera pose. The model, instead, can focus all its generative power on previously unobserved regions, as well as advancing the scene state to the next frame. Our results demonstrate more precise camera control than prior work, as well as state-of-the-art results in sparse-view novel view synthesis, even in challenging settings such as driving scenes and monocular dynamic video. Results are best viewed in videos. Check out our webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/

Summary

AI-Generated Summary

PDF224March 6, 2025