見ればわかる:スケールでのポーズフリービデオにおける3Dクリエーションの学習
You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale
December 9, 2024
著者: Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
cs.AI
要旨
最近の3D生成モデルは、一般的には限られたスケールの3D「ゴールドラベル」または2D拡散事前情報に依存していますが、スケーラブルな学習パラダイムの不足により、制約された3D事前情報によって性能が上限に制限されています。本研究では、オープンワールド3D生成のために大規模なインターネット動画でトレーニングされたビジュアル条件付きマルチビューディフュージョンモデルであるSee3Dを提案します。このモデルは、広範囲かつ急速に成長しているビデオデータから視覚コンテンツを単独で見ることで3D知識を獲得することを目指しています。これを実現するために、まず、提案されたデータキュレーションパイプラインを使用してトレーニングデータをスケールアップし、ソースビデオからマルチビューの不整合と不十分な観測を自動的にフィルタリングします。これにより、16Mのビデオクリップから320Mフレームを含む高品質で豊富で多様な大規模なマルチビュー画像データセットであるWebVi3Dが生成されます。ただし、明示的な3Dジオメトリやカメラポーズの注釈なしにビデオから一般的な3D事前情報を学習することは容易ではなく、Webスケールのビデオにポーズ条件を注釈することは費用がかかりすぎます。ポーズ条件の必要性を排除するために、マスクされたビデオデータに時間依存性のノイズを追加して生成される純粋な2D帰納的ビジュアルシグナルを導入します。最後に、高忠実度3D生成のためのワーピングベースのパイプラインにSee3Dを統合することで、革新的なビジュアル条件付き3D生成フレームワークを導入します。コスト効果的かつスケーラブルなビデオデータでトレーニングされたSee3Dは、高いゼロショットおよびオープンワールド生成能力を実現し、高価で制約のある3Dデータセットでトレーニングされたモデルを大幅に上回ることが、数値および視覚的比較により示されています。プロジェクトページはこちらをご覧ください:https://vision.baai.ac.cn/see3d
English
Recent 3D generation models typically rely on limited-scale 3D `gold-labels'
or 2D diffusion priors for 3D content creation. However, their performance is
upper-bounded by constrained 3D priors due to the lack of scalable learning
paradigms. In this work, we present See3D, a visual-conditional multi-view
diffusion model trained on large-scale Internet videos for open-world 3D
creation. The model aims to Get 3D knowledge by solely Seeing the visual
contents from the vast and rapidly growing video data -- You See it, You Got
it. To achieve this, we first scale up the training data using a proposed data
curation pipeline that automatically filters out multi-view inconsistencies and
insufficient observations from source videos. This results in a high-quality,
richly diverse, large-scale dataset of multi-view images, termed WebVi3D,
containing 320M frames from 16M video clips. Nevertheless, learning generic 3D
priors from videos without explicit 3D geometry or camera pose annotations is
nontrivial, and annotating poses for web-scale videos is prohibitively
expensive. To eliminate the need for pose conditions, we introduce an
innovative visual-condition - a purely 2D-inductive visual signal generated by
adding time-dependent noise to the masked video data. Finally, we introduce a
novel visual-conditional 3D generation framework by integrating See3D into a
warping-based pipeline for high-fidelity 3D generation. Our numerical and
visual comparisons on single and sparse reconstruction benchmarks show that
See3D, trained on cost-effective and scalable video data, achieves notable
zero-shot and open-world generation capabilities, markedly outperforming models
trained on costly and constrained 3D datasets. Please refer to our project page
at: https://vision.baai.ac.cn/see3d