ChatPaper.aiChatPaper

GEN3C: 3D-informierte, weltkonsistente Videogenerierung mit präziser Kamerasteuerung

GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control

March 5, 2025
Autoren: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao
cs.AI

Zusammenfassung

Wir präsentieren GEN3C, ein generatives Videomodell mit präziser Kamerasteuerung und zeitlicher 3D-Konsistenz. Bisherige Videomodelle erzeugen zwar realistische Videos, nutzen jedoch nur wenig 3D-Informationen, was zu Inkonsistenzen führt, wie beispielsweise Objekte, die plötzlich erscheinen oder verschwinden. Die Kamerasteuerung, falls überhaupt implementiert, ist unpräzise, da Kameraparameter lediglich als Eingaben für das neuronale Netz dienen, das dann ableiten muss, wie das Video von der Kamera abhängt. Im Gegensatz dazu wird GEN3C durch einen 3D-Cache geleitet: Punktwolken, die durch die Vorhersage der pixelweisen Tiefe von Startbildern oder zuvor generierten Frames gewonnen werden. Bei der Generierung der nächsten Frames wird GEN3C auf die 2D-Darstellungen des 3D-Caches mit der vom Benutzer bereitgestellten neuen Kameratrajektorie konditioniert. Entscheidend ist, dass GEN3C weder sich daran erinnern muss, was es zuvor generiert hat, noch die Bildstruktur aus der Kameraposition ableiten muss. Stattdessen kann das Modell seine gesamte generative Leistung auf zuvor nicht beobachtete Regionen sowie auf den Fortschritt des Szenenzustands zum nächsten Frame konzentrieren. Unsere Ergebnisse zeigen eine präzisere Kamerasteuerung als bisherige Arbeiten sowie state-of-the-art Ergebnisse in der Synthese neuer Ansichten aus spärlichen Blickwinkeln, selbst in anspruchsvollen Szenarien wie Fahrsequenzen und monokularen dynamischen Videos. Die Ergebnisse sind am besten in Videos zu sehen. Besuchen Sie unsere Webseite! https://research.nvidia.com/labs/toronto-ai/GEN3C/
English
We present GEN3C, a generative video model with precise Camera Control and temporal 3D Consistency. Prior video models already generate realistic videos, but they tend to leverage little 3D information, leading to inconsistencies, such as objects popping in and out of existence. Camera control, if implemented at all, is imprecise, because camera parameters are mere inputs to the neural network which must then infer how the video depends on the camera. In contrast, GEN3C is guided by a 3D cache: point clouds obtained by predicting the pixel-wise depth of seed images or previously generated frames. When generating the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with the new camera trajectory provided by the user. Crucially, this means that GEN3C neither has to remember what it previously generated nor does it have to infer the image structure from the camera pose. The model, instead, can focus all its generative power on previously unobserved regions, as well as advancing the scene state to the next frame. Our results demonstrate more precise camera control than prior work, as well as state-of-the-art results in sparse-view novel view synthesis, even in challenging settings such as driving scenes and monocular dynamic video. Results are best viewed in videos. Check out our webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/

Summary

AI-Generated Summary

PDF224March 6, 2025