UltrAvatar: Un Modelo de Difusión de Avatares 3D Animables Realistas con Texturas Guiadas por Autenticidad
UltrAvatar: A Realistic Animatable 3D Avatar Diffusion Model with Authenticity Guided Textures
January 20, 2024
Autores: Mingyuan Zhou, Rakib Hyder, Ziwei Xuan, Guojun Qi
cs.AI
Resumen
Los recientes avances en la generación de avatares 3D han captado una atención significativa. Estos avances buscan producir avatares animables más realistas, reduciendo la brecha entre las experiencias virtuales y las del mundo real. La mayoría de los trabajos existentes emplean la pérdida de Muestreo de Distilación de Puntaje (SDS, por sus siglas en inglés), combinada con un renderizador diferenciable y una condición de texto, para guiar un modelo de difusión en la generación de avatares 3D. Sin embargo, SDS a menudo genera resultados demasiado suavizados con pocos detalles faciales, careciendo así de la diversidad en comparación con el muestreo ancestral. Por otro lado, otros trabajos generan avatares 3D a partir de una sola imagen, donde los desafíos de efectos de iluminación no deseados, perspectivas visuales y calidad inferior de la imagen dificultan la reconstrucción confiable de mallas faciales 3D con texturas completas alineadas. En este artículo, proponemos un nuevo enfoque de generación de avatares 3D denominado UltrAvatar, que mejora la fidelidad de la geometría y la calidad superior de las texturas basadas en renderizado físico (PBR, por sus siglas en inglés) sin iluminación no deseada. Para ello, el enfoque propuesto presenta un modelo de extracción de color difuso y un modelo de difusión de texturas guiado por autenticidad. El primero elimina los efectos de iluminación no deseados para revelar los verdaderos colores difusos, de modo que los avatares generados puedan renderizarse bajo diversas condiciones de iluminación. El segundo sigue dos guías basadas en gradientes para generar texturas PBR que renderizan características y detalles de identidad facial más diversos, alineándose mejor con la geometría de la malla 3D. Demostramos la efectividad y robustez del método propuesto, superando ampliamente a los métodos más avanzados en los experimentos.
English
Recent advances in 3D avatar generation have gained significant attentions.
These breakthroughs aim to produce more realistic animatable avatars, narrowing
the gap between virtual and real-world experiences. Most of existing works
employ Score Distillation Sampling (SDS) loss, combined with a differentiable
renderer and text condition, to guide a diffusion model in generating 3D
avatars. However, SDS often generates oversmoothed results with few facial
details, thereby lacking the diversity compared with ancestral sampling. On the
other hand, other works generate 3D avatar from a single image, where the
challenges of unwanted lighting effects, perspective views, and inferior image
quality make them difficult to reliably reconstruct the 3D face meshes with the
aligned complete textures. In this paper, we propose a novel 3D avatar
generation approach termed UltrAvatar with enhanced fidelity of geometry, and
superior quality of physically based rendering (PBR) textures without unwanted
lighting. To this end, the proposed approach presents a diffuse color
extraction model and an authenticity guided texture diffusion model. The former
removes the unwanted lighting effects to reveal true diffuse colors so that the
generated avatars can be rendered under various lighting conditions. The latter
follows two gradient-based guidances for generating PBR textures to render
diverse face-identity features and details better aligning with 3D mesh
geometry. We demonstrate the effectiveness and robustness of the proposed
method, outperforming the state-of-the-art methods by a large margin in the
experiments.