Você Vê, Você Consegue: Aprendizado de Criação 3D em Vídeos Livres de Pose em Escala
You See it, You Got it: Learning 3D Creation on Pose-Free Videos at Scale
December 9, 2024
Autores: Baorui Ma, Huachen Gao, Haoge Deng, Zhengxiong Luo, Tiejun Huang, Lulu Tang, Xinlong Wang
cs.AI
Resumo
Os modelos de geração 3D recentes geralmente dependem de 'rótulos de ouro' 3D em escala limitada ou prioridades de difusão 2D para a criação de conteúdo 3D. No entanto, seu desempenho é limitado por prioridades 3D restritas devido à falta de paradigmas de aprendizado escaláveis. Neste trabalho, apresentamos o See3D, um modelo de difusão multi-visual condicional treinado em vídeos da Internet em grande escala para a criação 3D de mundo aberto. O modelo tem como objetivo obter conhecimento 3D apenas visualizando o conteúdo visual dos vastos e rapidamente crescentes dados de vídeo - Você Vê, Você Obtém. Para alcançar isso, primeiro escalamos os dados de treinamento usando um pipeline de curadoria de dados proposto que filtra automaticamente inconsistências multi-visual e observações insuficientes de vídeos de origem. Isso resulta em um conjunto de dados de grande escala, diversificado e de alta qualidade de imagens multi-visual, denominado WebVi3D, contendo 320 milhões de frames de 16 milhões de videoclipes. No entanto, aprender prioridades 3D genéricas de vídeos sem anotações explícitas de geometria 3D ou poses de câmera é complexo, e a anotação de poses para vídeos em escala web é proibitivamente cara. Para eliminar a necessidade de condições de pose, introduzimos um inovador condicionamento visual - um sinal visual puramente indutivo 2D gerado pela adição de ruído dependente do tempo aos dados de vídeo mascarados. Por fim, introduzimos um novo framework de geração 3D visual-condicional integrando o See3D em um pipeline baseado em warping para geração 3D de alta fidelidade. Nossas comparações numéricas e visuais em benchmarks de reconstrução única e esparsa mostram que o See3D, treinado em dados de vídeo econômicos e escaláveis, alcança notáveis capacidades de geração de mundo aberto e de zero-shot, superando significativamente modelos treinados em conjuntos de dados 3D caros e restritos. Consulte nossa página do projeto em: https://vision.baai.ac.cn/see3d
English
Recent 3D generation models typically rely on limited-scale 3D `gold-labels'
or 2D diffusion priors for 3D content creation. However, their performance is
upper-bounded by constrained 3D priors due to the lack of scalable learning
paradigms. In this work, we present See3D, a visual-conditional multi-view
diffusion model trained on large-scale Internet videos for open-world 3D
creation. The model aims to Get 3D knowledge by solely Seeing the visual
contents from the vast and rapidly growing video data -- You See it, You Got
it. To achieve this, we first scale up the training data using a proposed data
curation pipeline that automatically filters out multi-view inconsistencies and
insufficient observations from source videos. This results in a high-quality,
richly diverse, large-scale dataset of multi-view images, termed WebVi3D,
containing 320M frames from 16M video clips. Nevertheless, learning generic 3D
priors from videos without explicit 3D geometry or camera pose annotations is
nontrivial, and annotating poses for web-scale videos is prohibitively
expensive. To eliminate the need for pose conditions, we introduce an
innovative visual-condition - a purely 2D-inductive visual signal generated by
adding time-dependent noise to the masked video data. Finally, we introduce a
novel visual-conditional 3D generation framework by integrating See3D into a
warping-based pipeline for high-fidelity 3D generation. Our numerical and
visual comparisons on single and sparse reconstruction benchmarks show that
See3D, trained on cost-effective and scalable video data, achieves notable
zero-shot and open-world generation capabilities, markedly outperforming models
trained on costly and constrained 3D datasets. Please refer to our project page
at: https://vision.baai.ac.cn/see3dSummary
AI-Generated Summary