ChatPaper.aiChatPaper

MVDD: Modelli di Diffusione della Profondità Multi-Vista

MVDD: Multi-View Depth Diffusion Models

December 8, 2023
Autori: Zhen Wang, Qiangeng Xu, Feitong Tan, Menglei Chai, Shichen Liu, Rohit Pandey, Sean Fanello, Achuta Kadambi, Yinda Zhang
cs.AI

Abstract

I modelli di diffusione per il denoising hanno dimostrato risultati eccezionali nella generazione di immagini 2D, ma replicare questo successo nella generazione di forme 3D rimane una sfida. In questo articolo, proponiamo di sfruttare la profondità multi-vista, che rappresenta forme 3D complesse in un formato di dati 2D facile da denoisare. Abbiamo abbinato questa rappresentazione a un modello di diffusione, MVDD, in grado di generare nuvole di punti dense di alta qualità con oltre 20K punti e dettagli fini. Per garantire la coerenza 3D nella profondità multi-vista, introduciamo un'attenzione ai segmenti di linea epipolare che condiziona il passo di denoising per una vista sulle viste adiacenti. Inoltre, un modulo di fusione della profondità è incorporato nei passi di diffusione per garantire ulteriormente l'allineamento delle mappe di profondità. Quando arricchito con la ricostruzione della superficie, MVDD può anche produrre mesh 3D di alta qualità. Inoltre, MVDD si distingue in altre attività come il completamento della profondità e può servire come prior 3D, migliorando significativamente molte attività a valle, come l'inversione di GAN. I risultati all'avanguardia ottenuti da esperimenti estensivi dimostrano l'eccellente capacità di MVDD nella generazione di forme 3D, nel completamento della profondità e il suo potenziale come prior 3D per attività a valle.
English
Denoising diffusion models have demonstrated outstanding results in 2D image generation, yet it remains a challenge to replicate its success in 3D shape generation. In this paper, we propose leveraging multi-view depth, which represents complex 3D shapes in a 2D data format that is easy to denoise. We pair this representation with a diffusion model, MVDD, that is capable of generating high-quality dense point clouds with 20K+ points with fine-grained details. To enforce 3D consistency in multi-view depth, we introduce an epipolar line segment attention that conditions the denoising step for a view on its neighboring views. Additionally, a depth fusion module is incorporated into diffusion steps to further ensure the alignment of depth maps. When augmented with surface reconstruction, MVDD can also produce high-quality 3D meshes. Furthermore, MVDD stands out in other tasks such as depth completion, and can serve as a 3D prior, significantly boosting many downstream tasks, such as GAN inversion. State-of-the-art results from extensive experiments demonstrate MVDD's excellent ability in 3D shape generation, depth completion, and its potential as a 3D prior for downstream tasks.
PDF100December 15, 2024