UltrAvatar: Um Modelo de Difusão de Avatar 3D Animável e Realista com Texturas Guiadas por Autenticidade
UltrAvatar: A Realistic Animatable 3D Avatar Diffusion Model with Authenticity Guided Textures
January 20, 2024
Autores: Mingyuan Zhou, Rakib Hyder, Ziwei Xuan, Guojun Qi
cs.AI
Resumo
Os recentes avanços na geração de avatares 3D têm ganhado atenção significativa. Esses avanços visam produzir avatares animáveis mais realistas, reduzindo a lacuna entre as experiências virtuais e do mundo real. A maioria dos trabalhos existentes emprega a perda de Amostragem de Destilação de Pontuação (SDS), combinada com um renderizador diferenciável e condição de texto, para orientar um modelo de difusão na geração de avatares 3D. No entanto, o SDS frequentemente gera resultados excessivamente suavizados com poucos detalhes faciais, carecendo da diversidade em comparação com a amostragem ancestral. Por outro lado, outros trabalhos geram avatares 3D a partir de uma única imagem, onde os desafios de efeitos de iluminação indesejados, perspectivas de visão e qualidade inferior da imagem tornam difícil reconstruir de forma confiável as malhas faciais 3D com texturas completas alinhadas. Neste artigo, propomos uma nova abordagem de geração de avatares 3D denominada UltrAvatar, com fidelidade aprimorada da geometria e qualidade superior das texturas de renderização baseada em física (PBR) sem iluminação indesejada. Para isso, a abordagem proposta apresenta um modelo de extração de cor difusa e um modelo de difusão de textura guiado por autenticidade. O primeiro remove os efeitos de iluminação indesejados para revelar as verdadeiras cores difusas, permitindo que os avatares gerados sejam renderizados sob várias condições de iluminação. O segundo segue duas orientações baseadas em gradiente para gerar texturas PBR, renderizando melhor as características e detalhes da identidade facial que se alinham com a geometria da malha 3D. Demonstramos a eficácia e robustez do método proposto, superando os métodos state-of-the-art por uma grande margem nos experimentos.
English
Recent advances in 3D avatar generation have gained significant attentions.
These breakthroughs aim to produce more realistic animatable avatars, narrowing
the gap between virtual and real-world experiences. Most of existing works
employ Score Distillation Sampling (SDS) loss, combined with a differentiable
renderer and text condition, to guide a diffusion model in generating 3D
avatars. However, SDS often generates oversmoothed results with few facial
details, thereby lacking the diversity compared with ancestral sampling. On the
other hand, other works generate 3D avatar from a single image, where the
challenges of unwanted lighting effects, perspective views, and inferior image
quality make them difficult to reliably reconstruct the 3D face meshes with the
aligned complete textures. In this paper, we propose a novel 3D avatar
generation approach termed UltrAvatar with enhanced fidelity of geometry, and
superior quality of physically based rendering (PBR) textures without unwanted
lighting. To this end, the proposed approach presents a diffuse color
extraction model and an authenticity guided texture diffusion model. The former
removes the unwanted lighting effects to reveal true diffuse colors so that the
generated avatars can be rendered under various lighting conditions. The latter
follows two gradient-based guidances for generating PBR textures to render
diverse face-identity features and details better aligning with 3D mesh
geometry. We demonstrate the effectiveness and robustness of the proposed
method, outperforming the state-of-the-art methods by a large margin in the
experiments.