V3D: I modelli di diffusione video sono generatori 3D efficaci
V3D: Video Diffusion Models are Effective 3D Generators
March 11, 2024
Autori: Zilong Chen, Yikai Wang, Feng Wang, Zhengyi Wang, Huaping Liu
cs.AI
Abstract
La generazione automatica 3D ha recentemente attirato un'attenzione diffusa. I metodi più recenti hanno notevolmente accelerato la velocità di generazione, ma solitamente producono oggetti meno dettagliati a causa della capacità limitata del modello o dei dati 3D. Ispirati dai recenti progressi nei modelli di diffusione video, introduciamo V3D, che sfrutta la capacità di simulazione del mondo dei modelli di diffusione video pre-addestrati per facilitare la generazione 3D. Per sfruttare appieno il potenziale della diffusione video nel percepire il mondo 3D, introduciamo ulteriormente un priore di consistenza geometrica ed estendiamo il modello di diffusione video a un generatore 3D multi-vista coerente. Grazie a ciò, il modello di diffusione video all'avanguardia può essere perfezionato per generare fotogrammi orbitanti a 360 gradi attorno a un oggetto partendo da una singola immagine. Con le nostre pipeline di ricostruzione personalizzate, possiamo generare mesh di alta qualità o Gaussiane 3D in meno di 3 minuti. Inoltre, il nostro metodo può essere esteso alla sintesi di nuove viste a livello di scena, ottenendo un controllo preciso sul percorso della fotocamera con viste di input sparse. Esperimenti estensivi dimostrano la performance superiore dell'approccio proposto, specialmente in termini di qualità di generazione e coerenza multi-vista. Il nostro codice è disponibile all'indirizzo https://github.com/heheyas/V3D.
English
Automatic 3D generation has recently attracted widespread attention. Recent
methods have greatly accelerated the generation speed, but usually produce
less-detailed objects due to limited model capacity or 3D data. Motivated by
recent advancements in video diffusion models, we introduce V3D, which
leverages the world simulation capacity of pre-trained video diffusion models
to facilitate 3D generation. To fully unleash the potential of video diffusion
to perceive the 3D world, we further introduce geometrical consistency prior
and extend the video diffusion model to a multi-view consistent 3D generator.
Benefiting from this, the state-of-the-art video diffusion model could be
fine-tuned to generate 360degree orbit frames surrounding an object given a
single image. With our tailored reconstruction pipelines, we can generate
high-quality meshes or 3D Gaussians within 3 minutes. Furthermore, our method
can be extended to scene-level novel view synthesis, achieving precise control
over the camera path with sparse input views. Extensive experiments demonstrate
the superior performance of the proposed approach, especially in terms of
generation quality and multi-view consistency. Our code is available at
https://github.com/heheyas/V3D