ChatPaper.aiChatPaper

HeadCraft: Modellazione di Variazioni di Forma ad Alto Dettaglio per 3DMM Animati

HeadCraft: Modeling High-Detail Shape Variations for Animated 3DMMs

December 21, 2023
Autori: Artem Sevastopolsky, Philip-William Grassal, Simon Giebenhain, ShahRukh Athar, Luisa Verdoliva, Matthias Niessner
cs.AI

Abstract

I recenti progressi nella modellazione della testa umana consentono di generare modelli 3D di teste realistici tramite rappresentazioni neurali. Tuttavia, la costruzione di modelli completi di teste ad alta fedeltà con animazione esplicitamente controllata rimane un problema. Inoltre, completare la geometria della testa basandosi su un'osservazione parziale, ad esempio proveniente da un sensore di profondità, preservando i dettagli, è spesso problematico per i metodi esistenti. Introduciamo un modello generativo per mesh 3D dettagliate di teste basato su un 3DMM articolato, che consente sia l'animazione esplicita che la preservazione di dettagli ad alta risoluzione. Il nostro metodo viene addestrato in due fasi. In primo luogo, registriamo un modello parametrico di testa con spostamenti dei vertici su ciascuna mesh del recente dataset NPHM, composto da scansioni 3D accurate di teste. Gli spostamenti stimati vengono mappati su un layout UV creato manualmente. In secondo luogo, addestriamo un modello StyleGAN per generalizzare le mappe UV degli spostamenti. La decomposizione del modello parametrico e gli spostamenti di alta qualità dei vertici ci permettono di animare il modello e modificarlo semanticamente. Dimostriamo i risultati della generazione incondizionata e dell'adattamento a osservazioni complete o parziali. La pagina del progetto è disponibile all'indirizzo https://seva100.github.io/headcraft.
English
Current advances in human head modeling allow to generate plausible-looking 3D head models via neural representations. Nevertheless, constructing complete high-fidelity head models with explicitly controlled animation remains an issue. Furthermore, completing the head geometry based on a partial observation, e.g. coming from a depth sensor, while preserving details is often problematic for the existing methods. We introduce a generative model for detailed 3D head meshes on top of an articulated 3DMM which allows explicit animation and high-detail preservation at the same time. Our method is trained in two stages. First, we register a parametric head model with vertex displacements to each mesh of the recently introduced NPHM dataset of accurate 3D head scans. The estimated displacements are baked into a hand-crafted UV layout. Second, we train a StyleGAN model in order to generalize over the UV maps of displacements. The decomposition of the parametric model and high-quality vertex displacements allows us to animate the model and modify it semantically. We demonstrate the results of unconditional generation and fitting to the full or partial observation. The project page is available at https://seva100.github.io/headcraft.
PDF71December 15, 2024