ChatPaper.aiChatPaper

GEN3C : Génération de vidéos cohérentes avec le monde réel en 3D avec un contrôle précis de la caméra

GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control

March 5, 2025
papers.authors: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao
cs.AI

papers.abstract

Nous présentons GEN3C, un modèle génératif de vidéo doté d'un contrôle précis de la caméra et d'une cohérence temporelle 3D. Les modèles vidéo existants génèrent déjà des vidéos réalistes, mais ils exploitent peu d'informations 3D, ce qui entraîne des incohérences, comme des objets apparaissant et disparaissant subitement. Le contrôle de la caméra, lorsqu'il est implémenté, est souvent imprécis, car les paramètres de la caméra ne sont que des entrées du réseau neuronal, qui doit ensuite déduire comment la vidéo dépend de la caméra. En revanche, GEN3C est guidé par un cache 3D : des nuages de points obtenus en prédisant la profondeur pixel par pixel des images de départ ou des images précédemment générées. Lors de la génération des images suivantes, GEN3C est conditionné par les rendus 2D du cache 3D avec la nouvelle trajectoire de caméra fournie par l'utilisateur. Cela signifie que GEN3C n'a ni besoin de se souvenir de ce qu'il a précédemment généré, ni de déduire la structure de l'image à partir de la pose de la caméra. Le modèle peut ainsi concentrer toute sa puissance générative sur les régions non encore observées, tout en faisant évoluer l'état de la scène vers l'image suivante. Nos résultats démontrent un contrôle de la caméra plus précis que les travaux précédents, ainsi que des performances de pointe en synthèse de nouvelles vues à partir de vues éparses, même dans des contextes difficiles comme les scènes de conduite et les vidéos dynamiques monoculaires. Les résultats sont mieux appréciés en vidéo. Consultez notre page web ! https://research.nvidia.com/labs/toronto-ai/GEN3C/
English
We present GEN3C, a generative video model with precise Camera Control and temporal 3D Consistency. Prior video models already generate realistic videos, but they tend to leverage little 3D information, leading to inconsistencies, such as objects popping in and out of existence. Camera control, if implemented at all, is imprecise, because camera parameters are mere inputs to the neural network which must then infer how the video depends on the camera. In contrast, GEN3C is guided by a 3D cache: point clouds obtained by predicting the pixel-wise depth of seed images or previously generated frames. When generating the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with the new camera trajectory provided by the user. Crucially, this means that GEN3C neither has to remember what it previously generated nor does it have to infer the image structure from the camera pose. The model, instead, can focus all its generative power on previously unobserved regions, as well as advancing the scene state to the next frame. Our results demonstrate more precise camera control than prior work, as well as state-of-the-art results in sparse-view novel view synthesis, even in challenging settings such as driving scenes and monocular dynamic video. Results are best viewed in videos. Check out our webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/
PDF224March 6, 2025