ChatPaper.aiChatPaper

UltrAvatar: Ein realistisches animierbares 3D-Avatar-Diffusionsmodell mit authentizitätsgeleiteten Texturen

UltrAvatar: A Realistic Animatable 3D Avatar Diffusion Model with Authenticity Guided Textures

January 20, 2024
Autoren: Mingyuan Zhou, Rakib Hyder, Ziwei Xuan, Guojun Qi
cs.AI

Zusammenfassung

Jüngste Fortschritte in der Generierung von 3D-Avataren haben erhebliche Aufmerksamkeit erregt. Diese Durchbrüche zielen darauf ab, realistischere und animierbare Avatare zu erzeugen, wodurch die Lücke zwischen virtuellen und realen Erfahrungen verringert wird. Die meisten bestehenden Ansätze verwenden den Score Distillation Sampling (SDS)-Verlust, kombiniert mit einem differenzierbaren Renderer und Textbedingungen, um ein Diffusionsmodell bei der Generierung von 3D-Avataren zu steuern. SDS führt jedoch oft zu übermäßig geglätteten Ergebnissen mit wenigen Gesichtsdetails, wodurch die Vielfalt im Vergleich zum ancestral sampling eingeschränkt ist. Andere Ansätze generieren 3D-Avatare aus einem einzelnen Bild, wobei die Herausforderungen unerwünschter Lichteffekte, perspektivischer Ansichten und minderwertiger Bildqualität die zuverlässige Rekonstruktion von 3D-Gesichtsnetzen mit ausgerichteten vollständigen Texturen erschweren. In diesem Artikel schlagen wir einen neuartigen Ansatz zur 3D-Avatar-Generierung vor, genannt UltrAvatar, mit verbesserter geometrischer Genauigkeit und überlegener Qualität von physikalisch basierten Rendering (PBR)-Texturen ohne unerwünschte Beleuchtung. Zu diesem Zweck präsentiert der vorgeschlagene Ansatz ein Modell zur Extraktion der diffusen Farbe und ein authentizitätsgeführtes Textur-Diffusionsmodell. Ersteres entfernt unerwünschte Lichteffekte, um die wahre diffuse Farbe offenzulegen, sodass die generierten Avatare unter verschiedenen Lichtbedingungen gerendert werden können. Letzteres folgt zwei gradientenbasierten Leitlinien zur Generierung von PBR-Texturen, um vielfältige Gesichtsidentitätsmerkmale und Details besser an die 3D-Netzgeometrie anzupassen. Wir demonstrieren die Wirksamkeit und Robustheit der vorgeschlagenen Methode, die in den Experimenten die state-of-the-art-Methoden deutlich übertrifft.
English
Recent advances in 3D avatar generation have gained significant attentions. These breakthroughs aim to produce more realistic animatable avatars, narrowing the gap between virtual and real-world experiences. Most of existing works employ Score Distillation Sampling (SDS) loss, combined with a differentiable renderer and text condition, to guide a diffusion model in generating 3D avatars. However, SDS often generates oversmoothed results with few facial details, thereby lacking the diversity compared with ancestral sampling. On the other hand, other works generate 3D avatar from a single image, where the challenges of unwanted lighting effects, perspective views, and inferior image quality make them difficult to reliably reconstruct the 3D face meshes with the aligned complete textures. In this paper, we propose a novel 3D avatar generation approach termed UltrAvatar with enhanced fidelity of geometry, and superior quality of physically based rendering (PBR) textures without unwanted lighting. To this end, the proposed approach presents a diffuse color extraction model and an authenticity guided texture diffusion model. The former removes the unwanted lighting effects to reveal true diffuse colors so that the generated avatars can be rendered under various lighting conditions. The latter follows two gradient-based guidances for generating PBR textures to render diverse face-identity features and details better aligning with 3D mesh geometry. We demonstrate the effectiveness and robustness of the proposed method, outperforming the state-of-the-art methods by a large margin in the experiments.
PDF72December 15, 2024