ChatPaper.aiChatPaper

StyleAvatar3D: Benutten van Beeld-Tekst Diffusiemodellen voor Hoogwaardige 3D Avatar Generatie

StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity 3D Avatar Generation

May 30, 2023
Auteurs: Chi Zhang, Yiwen Chen, Yijun Fu, Zhenglin Zhou, Gang YU, Billzb Wang, Bin Fu, Tao Chen, Guosheng Lin, Chunhua Shen
cs.AI

Samenvatting

De recente vooruitgang in beeld-tekst diffusiemodellen heeft de onderzoeksinteresse in grootschalige 3D-generatieve modellen gestimuleerd. Desalniettemin vormt de beperkte beschikbaarheid van diverse 3D-bronnen aanzienlijke uitdagingen voor het leerproces. In dit artikel presenteren we een nieuwe methode voor het genereren van hoogwaardige, gestileerde 3D-avatars die gebruikmaakt van vooraf getrainde beeld-tekst diffusiemodellen voor datageneratie en een op Generative Adversarial Networks (GAN) gebaseerd 3D-generatienetwerk voor training. Onze methode benut de uitgebreide voorkennis van uiterlijk en geometrie die door beeld-tekst diffusiemodellen wordt geboden om multi-view beelden van avatars in verschillende stijlen te genereren. Tijdens de datageneratie gebruiken we poses die zijn geëxtraheerd uit bestaande 3D-modellen om de generatie van multi-view beelden te sturen. Om de misalignering tussen poses en beelden in de data aan te pakken, onderzoeken we view-specifieke prompts en ontwikkelen we een coarse-to-fine discriminator voor GAN-training. We verdiepen ons ook in attribuutgerelateerde prompts om de diversiteit van de gegenereerde avatars te vergroten. Daarnaast ontwikkelen we een latent diffusiemodel binnen de stijlruimte van StyleGAN om de generatie van avatars op basis van beeldinvoer mogelijk te maken. Onze aanpak toont superieure prestaties ten opzichte van huidige state-of-the-art methoden wat betreft visuele kwaliteit en diversiteit van de geproduceerde avatars.
English
The recent advancements in image-text diffusion models have stimulated research interest in large-scale 3D generative models. Nevertheless, the limited availability of diverse 3D resources presents significant challenges to learning. In this paper, we present a novel method for generating high-quality, stylized 3D avatars that utilizes pre-trained image-text diffusion models for data generation and a Generative Adversarial Network (GAN)-based 3D generation network for training. Our method leverages the comprehensive priors of appearance and geometry offered by image-text diffusion models to generate multi-view images of avatars in various styles. During data generation, we employ poses extracted from existing 3D models to guide the generation of multi-view images. To address the misalignment between poses and images in data, we investigate view-specific prompts and develop a coarse-to-fine discriminator for GAN training. We also delve into attribute-related prompts to increase the diversity of the generated avatars. Additionally, we develop a latent diffusion model within the style space of StyleGAN to enable the generation of avatars based on image inputs. Our approach demonstrates superior performance over current state-of-the-art methods in terms of visual quality and diversity of the produced avatars.
PDF42December 15, 2024