UltrAvatar : Un modèle de diffusion d'avatar 3D animé réaliste avec des textures guidées par l'authenticité
UltrAvatar: A Realistic Animatable 3D Avatar Diffusion Model with Authenticity Guided Textures
January 20, 2024
Auteurs: Mingyuan Zhou, Rakib Hyder, Ziwei Xuan, Guojun Qi
cs.AI
Résumé
Les récentes avancées dans la génération d'avatars 3D ont suscité une attention considérable. Ces percées visent à produire des avatars animables plus réalistes, réduisant ainsi l'écart entre les expériences virtuelles et réelles. La plupart des travaux existants utilisent la perte de Score Distillation Sampling (SDS), combinée à un rendu différenciable et à une condition textuelle, pour guider un modèle de diffusion dans la génération d'avatars 3D. Cependant, la SDS génère souvent des résultats trop lissés avec peu de détails faciaux, manquant ainsi de diversité par rapport à l'échantillonnage ancestral. D'autre part, d'autres travaux génèrent des avatars 3D à partir d'une seule image, où les défis liés aux effets d'éclairage indésirables, aux perspectives de vue et à la qualité inférieure de l'image rendent difficile la reconstruction fiable des maillages 3D du visage avec des textures complètes alignées. Dans cet article, nous proposons une nouvelle approche de génération d'avatars 3D, appelée UltrAvatar, offrant une fidélité accrue de la géométrie et une qualité supérieure des textures de rendu basé sur la physique (PBR) sans éclairage indésirable. Pour ce faire, l'approche proposée présente un modèle d'extraction de couleur diffuse et un modèle de diffusion de textures guidé par l'authenticité. Le premier élimine les effets d'éclairage indésirables pour révéler les vraies couleurs diffuses, permettant ainsi aux avatars générés d'être rendus sous diverses conditions d'éclairage. Le second suit deux guidages basés sur le gradient pour générer des textures PBR afin de rendre des caractéristiques et des détails d'identité faciale diversifiés, mieux alignés avec la géométrie du maillage 3D. Nous démontrons l'efficacité et la robustesse de la méthode proposée, surpassant largement les méthodes de pointe dans les expériences.
English
Recent advances in 3D avatar generation have gained significant attentions.
These breakthroughs aim to produce more realistic animatable avatars, narrowing
the gap between virtual and real-world experiences. Most of existing works
employ Score Distillation Sampling (SDS) loss, combined with a differentiable
renderer and text condition, to guide a diffusion model in generating 3D
avatars. However, SDS often generates oversmoothed results with few facial
details, thereby lacking the diversity compared with ancestral sampling. On the
other hand, other works generate 3D avatar from a single image, where the
challenges of unwanted lighting effects, perspective views, and inferior image
quality make them difficult to reliably reconstruct the 3D face meshes with the
aligned complete textures. In this paper, we propose a novel 3D avatar
generation approach termed UltrAvatar with enhanced fidelity of geometry, and
superior quality of physically based rendering (PBR) textures without unwanted
lighting. To this end, the proposed approach presents a diffuse color
extraction model and an authenticity guided texture diffusion model. The former
removes the unwanted lighting effects to reveal true diffuse colors so that the
generated avatars can be rendered under various lighting conditions. The latter
follows two gradient-based guidances for generating PBR textures to render
diverse face-identity features and details better aligning with 3D mesh
geometry. We demonstrate the effectiveness and robustness of the proposed
method, outperforming the state-of-the-art methods by a large margin in the
experiments.