GEN3C: 正確なカメラ制御を伴う3D情報に基づく世界整合性ビデオ生成
GEN3C: 3D-Informed World-Consistent Video Generation with Precise Camera Control
March 5, 2025
著者: Xuanchi Ren, Tianchang Shen, Jiahui Huang, Huan Ling, Yifan Lu, Merlin Nimier-David, Thomas Müller, Alexander Keller, Sanja Fidler, Jun Gao
cs.AI
要旨
本論文では、精密なカメラ制御と時間的3D一貫性を備えた生成型ビデオモデル「GEN3C」を提案します。既存のビデオモデルはリアルな映像を生成しますが、3D情報をほとんど活用しないため、物体が突然現れたり消えたりするような不整合が生じがちです。また、カメラ制御が実装されている場合でも、カメラパラメータがニューラルネットワークへの単なる入力となるため、映像がカメラにどのように依存するかを推論しなければならず、精度が低くなります。これに対し、GEN3Cは3Dキャッシュによって導かれます。このキャッシュは、シード画像や以前に生成されたフレームのピクセル単位の深度を予測することで得られる点群データです。次のフレームを生成する際、GEN3Cはユーザーが提供する新しいカメラ軌道に基づいて3Dキャッシュの2Dレンダリングを条件付けます。これにより、GEN3Cは以前に生成した内容を記憶する必要も、カメラポーズから画像構造を推論する必要もなくなります。代わりに、モデルはその生成能力をすべて、未観測領域や次のフレームへのシーン状態の進行に集中させることができます。我々の結果は、従来の研究よりも精密なカメラ制御を示し、運転シーンや単眼動画といった困難な設定においても、スパースビューの新規視点合成において最先端の結果を達成しています。結果はビデオでご覧いただくのが最適です。ぜひ当社のウェブページをご覧ください!https://research.nvidia.com/labs/toronto-ai/GEN3C/
English
We present GEN3C, a generative video model with precise Camera Control and
temporal 3D Consistency. Prior video models already generate realistic videos,
but they tend to leverage little 3D information, leading to inconsistencies,
such as objects popping in and out of existence. Camera control, if implemented
at all, is imprecise, because camera parameters are mere inputs to the neural
network which must then infer how the video depends on the camera. In contrast,
GEN3C is guided by a 3D cache: point clouds obtained by predicting the
pixel-wise depth of seed images or previously generated frames. When generating
the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with
the new camera trajectory provided by the user. Crucially, this means that
GEN3C neither has to remember what it previously generated nor does it have to
infer the image structure from the camera pose. The model, instead, can focus
all its generative power on previously unobserved regions, as well as advancing
the scene state to the next frame. Our results demonstrate more precise camera
control than prior work, as well as state-of-the-art results in sparse-view
novel view synthesis, even in challenging settings such as driving scenes and
monocular dynamic video. Results are best viewed in videos. Check out our
webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/Summary
AI-Generated Summary