GEN3C: 3D-geïnformeerde wereldconsistente videogeneratie met precieze camerabesturing
GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control
March 5, 2025
Auteurs: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao
cs.AI
Samenvatting
We presenteren GEN3C, een generatief videomodel met precieze Camera Control en
tijdelijke 3D Consistentie. Bestaande videomodellen genereren al realistische video's,
maar ze maken weinig gebruik van 3D-informatie, wat leidt tot inconsistenties,
zoals objecten die plotseling verschijnen en verdwijnen. Camera controle, als deze
überhaupt wordt geïmplementeerd, is onnauwkeurig, omdat cameraparameters slechts
inputs zijn voor het neuraal netwerk, dat vervolgens moet afleiden hoe de video
afhangt van de camera. In tegenstelling hiermee wordt GEN3C geleid door een 3D cache:
puntenwolken verkregen door het voorspellen van de pixelgewijze diepte van seed-afbeeldingen
of eerder gegenereerde frames. Bij het genereren van de volgende frames wordt GEN3C
geconditioneerd op de 2D-weergaven van de 3D cache met het nieuwe cameratraject dat door
de gebruiker wordt verstrekt. Cruciaal is dat dit betekent dat GEN3C noch hoeft te
onthouden wat het eerder heeft gegenereerd, noch de beeldstructuur hoeft af te leiden
uit de camerapositie. Het model kan in plaats daarvan al zijn generatieve kracht
richten op eerder niet waargenomen gebieden, evenals het voortbewegen van de scène
naar het volgende frame. Onze resultaten tonen een nauwkeurigere camerabesturing
dan eerder werk, evenals state-of-the-art resultaten in sparse-view novel view
synthesis, zelfs in uitdagende omgevingen zoals rijsimulaties en monodynamische video.
De resultaten zijn het beste te bekijken in video's. Bekijk onze webpagina!
https://research.nvidia.com/labs/toronto-ai/GEN3C/
English
We present GEN3C, a generative video model with precise Camera Control and
temporal 3D Consistency. Prior video models already generate realistic videos,
but they tend to leverage little 3D information, leading to inconsistencies,
such as objects popping in and out of existence. Camera control, if implemented
at all, is imprecise, because camera parameters are mere inputs to the neural
network which must then infer how the video depends on the camera. In contrast,
GEN3C is guided by a 3D cache: point clouds obtained by predicting the
pixel-wise depth of seed images or previously generated frames. When generating
the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with
the new camera trajectory provided by the user. Crucially, this means that
GEN3C neither has to remember what it previously generated nor does it have to
infer the image structure from the camera pose. The model, instead, can focus
all its generative power on previously unobserved regions, as well as advancing
the scene state to the next frame. Our results demonstrate more precise camera
control than prior work, as well as state-of-the-art results in sparse-view
novel view synthesis, even in challenging settings such as driving scenes and
monocular dynamic video. Results are best viewed in videos. Check out our
webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/Summary
AI-Generated Summary