ChatPaper.aiChatPaper

HeadSculpt : Création d'avatars de têtes 3D à partir de texte

HeadSculpt: Crafting 3D Head Avatars with Text

June 5, 2023
Auteurs: Xiao Han, Yukang Cao, Kai Han, Xiatian Zhu, Jiankang Deng, Yi-Zhe Song, Tao Xiang, Kwan-Yee K. Wong
cs.AI

Résumé

Récemment, les méthodes génératives 3D guidées par texte ont réalisé des avancées remarquables dans la production de textures et de géométries de haute qualité, profitant de la prolifération des grands modèles vision-langage et de diffusion d'images. Cependant, les méthodes existantes peinent encore à créer des avatars 3D de têtes haute fidélité sur deux aspects : (1) Elles s'appuient principalement sur un modèle de diffusion texte-à-image pré-entraîné tout en manquant de conscience 3D et de connaissances préalables sur les têtes. Cela les rend sujettes à des incohérences et des distorsions géométriques dans les avatars générés. (2) Elles sont limitées en matière d'édition fine. Cela est principalement dû aux limitations héritées des modèles de diffusion d'images 2D pré-entraînés, qui deviennent plus prononcées lorsqu'il s'agit d'avatars 3D de têtes. Dans ce travail, nous relevons ces défis en introduisant une pipeline polyvalente allant du grossier au fin, appelée HeadSculpt, pour créer (c'est-à-dire générer et éditer) des avatars 3D de têtes à partir de prompts textuels. Plus précisément, nous dotons d'abord le modèle de diffusion d'une conscience 3D en exploitant un contrôle basé sur des points de repère et un embedding textuel appris représentant l'apparence de la vue arrière des têtes, permettant ainsi des générations d'avatars de têtes cohérentes en 3D. Nous proposons en outre une nouvelle stratégie de distillation de score d'édition consciente de l'identité pour optimiser un maillage texturé avec une technique de rendu différentiable haute résolution. Cela permet de préserver l'identité tout en suivant les instructions d'édition. Nous démontrons la fidélité supérieure et les capacités d'édition de HeadSculpt à travers des expériences approfondies et des comparaisons avec les méthodes existantes.
English
Recently, text-guided 3D generative methods have made remarkable advancements in producing high-quality textures and geometry, capitalizing on the proliferation of large vision-language and image diffusion models. However, existing methods still struggle to create high-fidelity 3D head avatars in two aspects: (1) They rely mostly on a pre-trained text-to-image diffusion model whilst missing the necessary 3D awareness and head priors. This makes them prone to inconsistency and geometric distortions in the generated avatars. (2) They fall short in fine-grained editing. This is primarily due to the inherited limitations from the pre-trained 2D image diffusion models, which become more pronounced when it comes to 3D head avatars. In this work, we address these challenges by introducing a versatile coarse-to-fine pipeline dubbed HeadSculpt for crafting (i.e., generating and editing) 3D head avatars from textual prompts. Specifically, we first equip the diffusion model with 3D awareness by leveraging landmark-based control and a learned textual embedding representing the back view appearance of heads, enabling 3D-consistent head avatar generations. We further propose a novel identity-aware editing score distillation strategy to optimize a textured mesh with a high-resolution differentiable rendering technique. This enables identity preservation while following the editing instruction. We showcase HeadSculpt's superior fidelity and editing capabilities through comprehensive experiments and comparisons with existing methods.
PDF40December 15, 2024