ChatPaper.aiChatPaper

Einzelaufnahme impliziter morphierbarer Gesichter mit konsistenter Texturparametrisierung

Single-Shot Implicit Morphable Faces with Consistent Texture Parameterization

May 4, 2023
Autoren: Connor Z. Lin, Koki Nagano, Jan Kautz, Eric R. Chan, Umar Iqbal, Leonidas Guibas, Gordon Wetzstein, Sameh Khamis
cs.AI

Zusammenfassung

Es besteht eine wachsende Nachfrage nach der zugänglichen Erstellung von hochwertigen, animierbaren und anpassbaren 3D-Avataren. Obwohl 3D-morphable Modelle eine intuitive Steuerung für Bearbeitung und Animation sowie Robustheit bei der Rekonstruktion von Gesichtern aus Einzelansichten bieten, können sie geometrische und Erscheinungsdetails nur schwer erfassen. Methoden, die auf neuronalen impliziten Darstellungen wie Signed Distance Functions (SDF) oder Neural Radiance Fields basieren, erreichen Foto-Realismus, sind jedoch schwer zu animieren und generalisieren schlecht auf unbekannte Daten. Um dieses Problem zu lösen, schlagen wir eine neuartige Methode zur Konstruktion impliziter 3D-morphable Gesichtsmodelle vor, die sowohl generalisierbar als auch intuitiv für die Bearbeitung sind. Unser Gesichtsmodell, das aus einer Sammlung hochwertiger 3D-Scans trainiert wird, ist durch Geometrie-, Ausdrucks- und Textur-Latent-Codes mit einer gelernten SDF und expliziter UV-Textur-Parametrisierung charakterisiert. Nach dem Training können wir einen Avatar aus einem einzelnen „in-the-wild“-Bild rekonstruieren, indem wir das gelernte Prior nutzen, um das Bild in den latenten Raum unseres Modells zu projizieren. Unsere impliziten morphable Gesichtsmodelle können verwendet werden, um einen Avatar aus neuen Blickwinkeln zu rendern, Gesichtsausdrücke durch die Modifikation von Ausdrucks-Codes zu animieren und Texturen durch direktes Bemalen der gelernten UV-Texturkarten zu bearbeiten. Wir zeigen quantitativ und qualitativ, dass unsere Methode im Vergleich zu state-of-the-art-Verfahren die Foto-Realismus, Geometrie und Ausdrucksgenauigkeit verbessert.
English
There is a growing demand for the accessible creation of high-quality 3D avatars that are animatable and customizable. Although 3D morphable models provide intuitive control for editing and animation, and robustness for single-view face reconstruction, they cannot easily capture geometric and appearance details. Methods based on neural implicit representations, such as signed distance functions (SDF) or neural radiance fields, approach photo-realism, but are difficult to animate and do not generalize well to unseen data. To tackle this problem, we propose a novel method for constructing implicit 3D morphable face models that are both generalizable and intuitive for editing. Trained from a collection of high-quality 3D scans, our face model is parameterized by geometry, expression, and texture latent codes with a learned SDF and explicit UV texture parameterization. Once trained, we can reconstruct an avatar from a single in-the-wild image by leveraging the learned prior to project the image into the latent space of our model. Our implicit morphable face models can be used to render an avatar from novel views, animate facial expressions by modifying expression codes, and edit textures by directly painting on the learned UV-texture maps. We demonstrate quantitatively and qualitatively that our method improves upon photo-realism, geometry, and expression accuracy compared to state-of-the-art methods.
PDF50December 15, 2024