DiffusionGAN3D: Potenziamento della generazione 3D guidata da testo e adattamento di dominio attraverso la combinazione di GAN 3D e prior di diffusione
DiffusionGAN3D: Boosting Text-guided 3D Generation and Domain Adaption by Combining 3D GANs and Diffusion Priors
December 28, 2023
Autori: Biwen Lei, Kai Yu, Mengyang Feng, Miaomiao Cui, Xuansong Xie
cs.AI
Abstract
L'adattamento e la generazione di ritratti 3D guidati da testo trovano numerose applicazioni in vari campi. Tuttavia, a causa della mancanza di dati di addestramento e delle difficoltà nel gestire l'elevata varietà di geometria e aspetto, i metodi esistenti per queste attività soffrono di problemi come inflessibilità, instabilità e bassa fedeltà. In questo articolo, proponiamo un nuovo framework chiamato DiffusionGAN3D, che potenzia l'adattamento e la generazione di domini 3D guidati da testo combinando GAN 3D e modelli di diffusione. Nello specifico, integriamo modelli generativi 3D pre-addestrati (ad esempio, EG3D) e modelli di diffusione da testo a immagine. Il primo fornisce una solida base per la generazione stabile e di alta qualità di avatar da testo. I modelli di diffusione, a loro volta, offrono potenti prior e guidano la messa a punto del generatore 3D con una direzione informativa per ottenere un adattamento di dominio guidato da testo flessibile ed efficiente. Per migliorare la diversità nell'adattamento di dominio e la capacità di generazione nel passaggio da testo ad avatar, introduciamo rispettivamente la perdita di distanza relativa e un triplano apprendibile specifico per caso. Inoltre, progettiamo un modulo di raffinamento progressivo della texture per migliorare la qualità della texture per entrambe le attività sopra menzionate. Esperimenti estensivi dimostrano che il framework proposto ottiene risultati eccellenti sia nell'adattamento di dominio che nelle attività di generazione da testo ad avatar, superando i metodi esistenti in termini di qualità ed efficienza di generazione. La homepage del progetto è disponibile all'indirizzo https://younglbw.github.io/DiffusionGAN3D-homepage/.
English
Text-guided domain adaption and generation of 3D-aware portraits find many
applications in various fields. However, due to the lack of training data and
the challenges in handling the high variety of geometry and appearance, the
existing methods for these tasks suffer from issues like inflexibility,
instability, and low fidelity. In this paper, we propose a novel framework
DiffusionGAN3D, which boosts text-guided 3D domain adaption and generation by
combining 3D GANs and diffusion priors. Specifically, we integrate the
pre-trained 3D generative models (e.g., EG3D) and text-to-image diffusion
models. The former provides a strong foundation for stable and high-quality
avatar generation from text. And the diffusion models in turn offer powerful
priors and guide the 3D generator finetuning with informative direction to
achieve flexible and efficient text-guided domain adaption. To enhance the
diversity in domain adaption and the generation capability in text-to-avatar,
we introduce the relative distance loss and case-specific learnable triplane
respectively. Besides, we design a progressive texture refinement module to
improve the texture quality for both tasks above. Extensive experiments
demonstrate that the proposed framework achieves excellent results in both
domain adaption and text-to-avatar tasks, outperforming existing methods in
terms of generation quality and efficiency. The project homepage is at
https://younglbw.github.io/DiffusionGAN3D-homepage/.