ChatPaper.aiChatPaper

DiffusionGAN3D: Potenziamento della generazione 3D guidata da testo e adattamento di dominio attraverso la combinazione di GAN 3D e prior di diffusione

DiffusionGAN3D: Boosting Text-guided 3D Generation and Domain Adaption by Combining 3D GANs and Diffusion Priors

December 28, 2023
Autori: Biwen Lei, Kai Yu, Mengyang Feng, Miaomiao Cui, Xuansong Xie
cs.AI

Abstract

L'adattamento e la generazione di ritratti 3D guidati da testo trovano numerose applicazioni in vari campi. Tuttavia, a causa della mancanza di dati di addestramento e delle difficoltà nel gestire l'elevata varietà di geometria e aspetto, i metodi esistenti per queste attività soffrono di problemi come inflessibilità, instabilità e bassa fedeltà. In questo articolo, proponiamo un nuovo framework chiamato DiffusionGAN3D, che potenzia l'adattamento e la generazione di domini 3D guidati da testo combinando GAN 3D e modelli di diffusione. Nello specifico, integriamo modelli generativi 3D pre-addestrati (ad esempio, EG3D) e modelli di diffusione da testo a immagine. Il primo fornisce una solida base per la generazione stabile e di alta qualità di avatar da testo. I modelli di diffusione, a loro volta, offrono potenti prior e guidano la messa a punto del generatore 3D con una direzione informativa per ottenere un adattamento di dominio guidato da testo flessibile ed efficiente. Per migliorare la diversità nell'adattamento di dominio e la capacità di generazione nel passaggio da testo ad avatar, introduciamo rispettivamente la perdita di distanza relativa e un triplano apprendibile specifico per caso. Inoltre, progettiamo un modulo di raffinamento progressivo della texture per migliorare la qualità della texture per entrambe le attività sopra menzionate. Esperimenti estensivi dimostrano che il framework proposto ottiene risultati eccellenti sia nell'adattamento di dominio che nelle attività di generazione da testo ad avatar, superando i metodi esistenti in termini di qualità ed efficienza di generazione. La homepage del progetto è disponibile all'indirizzo https://younglbw.github.io/DiffusionGAN3D-homepage/.
English
Text-guided domain adaption and generation of 3D-aware portraits find many applications in various fields. However, due to the lack of training data and the challenges in handling the high variety of geometry and appearance, the existing methods for these tasks suffer from issues like inflexibility, instability, and low fidelity. In this paper, we propose a novel framework DiffusionGAN3D, which boosts text-guided 3D domain adaption and generation by combining 3D GANs and diffusion priors. Specifically, we integrate the pre-trained 3D generative models (e.g., EG3D) and text-to-image diffusion models. The former provides a strong foundation for stable and high-quality avatar generation from text. And the diffusion models in turn offer powerful priors and guide the 3D generator finetuning with informative direction to achieve flexible and efficient text-guided domain adaption. To enhance the diversity in domain adaption and the generation capability in text-to-avatar, we introduce the relative distance loss and case-specific learnable triplane respectively. Besides, we design a progressive texture refinement module to improve the texture quality for both tasks above. Extensive experiments demonstrate that the proposed framework achieves excellent results in both domain adaption and text-to-avatar tasks, outperforming existing methods in terms of generation quality and efficiency. The project homepage is at https://younglbw.github.io/DiffusionGAN3D-homepage/.
PDF61February 7, 2026