ChatPaper.aiChatPaper

GEN3C: Geração de Vídeo Consistente com o Mundo 3D e Controle Preciso de Câmera

GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control

March 5, 2025
Autores: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao
cs.AI

Resumo

Apresentamos o GEN3C, um modelo generativo de vídeo com Controle Preciso de Câmera e Consistência Temporal 3D. Modelos de vídeo anteriores já geram vídeos realistas, mas tendem a utilizar pouca informação 3D, resultando em inconsistências, como objetos que aparecem e desaparecem subitamente. O controle de câmera, quando implementado, é impreciso, pois os parâmetros da câmera são meras entradas para a rede neural, que deve então inferir como o vídeo depende da câmera. Em contraste, o GEN3C é guiado por um cache 3D: nuvens de pontos obtidas pela previsão da profundidade pixel a pixel de imagens iniciais ou quadros previamente gerados. Ao gerar os quadros seguintes, o GEN3C é condicionado pelas renderizações 2D do cache 3D com a nova trajetória da câmera fornecida pelo usuário. Crucialmente, isso significa que o GEN3C não precisa se lembrar do que gerou anteriormente nem inferir a estrutura da imagem a partir da pose da câmera. Em vez disso, o modelo pode concentrar todo o seu poder generativo em regiões previamente não observadas, bem como avançar o estado da cena para o próximo quadro. Nossos resultados demonstram um controle de câmera mais preciso do que trabalhos anteriores, além de resultados de última geração na síntese de novas vistas a partir de vistas esparsas, mesmo em cenários desafiadores, como cenas de direção e vídeo dinâmico monocular. Os resultados são melhor visualizados em vídeos. Confira nossa página! https://research.nvidia.com/labs/toronto-ai/GEN3C/
English
We present GEN3C, a generative video model with precise Camera Control and temporal 3D Consistency. Prior video models already generate realistic videos, but they tend to leverage little 3D information, leading to inconsistencies, such as objects popping in and out of existence. Camera control, if implemented at all, is imprecise, because camera parameters are mere inputs to the neural network which must then infer how the video depends on the camera. In contrast, GEN3C is guided by a 3D cache: point clouds obtained by predicting the pixel-wise depth of seed images or previously generated frames. When generating the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with the new camera trajectory provided by the user. Crucially, this means that GEN3C neither has to remember what it previously generated nor does it have to infer the image structure from the camera pose. The model, instead, can focus all its generative power on previously unobserved regions, as well as advancing the scene state to the next frame. Our results demonstrate more precise camera control than prior work, as well as state-of-the-art results in sparse-view novel view synthesis, even in challenging settings such as driving scenes and monocular dynamic video. Results are best viewed in videos. Check out our webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/

Summary

AI-Generated Summary

PDF224March 6, 2025