ChatPaper.aiChatPaper

HeadGAP: Avatar de cabeza 3D de pocos disparos a través de priors gaussianos generalizables.

HeadGAP: Few-shot 3D Head Avatar via Generalizable Gaussian Priors

August 12, 2024
Autores: Xiaozheng Zheng, Chao Wen, Zhaohu Li, Weiyi Zhang, Zhuo Su, Xu Chang, Yang Zhao, Zheng Lv, Xiaoyuan Zhang, Yongjie Zhang, Guidong Wang, Lan Xu
cs.AI

Resumen

En este documento, presentamos un enfoque novedoso para la creación de avatares tridimensionales de cabeza capaz de generalizar a partir de datos en la naturaleza con pocos ejemplos y alta fidelidad, así como una robustez animable. Dada la naturaleza poco restringida de este problema, es esencial incorporar conocimientos previos. Por lo tanto, proponemos un marco que consta de fases de aprendizaje previo y creación de avatares. La fase de aprendizaje previo aprovecha conocimientos previos de cabezas en 3D derivados de un conjunto de datos dinámicos de múltiples vistas a gran escala, y la fase de creación de avatares aplica estos conocimientos previos para la personalización con pocos ejemplos. Nuestro enfoque captura eficazmente estos conocimientos previos mediante el uso de una red auto-decodificadora basada en Splatting Gaussiano con modelado dinámico basado en partes. Nuestro método emplea codificación compartida de identidad con códigos latentes personalizados para identidades individuales para aprender los atributos de primitivas Gaussianas. Durante la fase de creación de avatares, logramos una rápida personalización de avatares de cabeza aprovechando estrategias de inversión y ajuste fino. Experimentos extensos demuestran que nuestro modelo aprovecha eficazmente los conocimientos previos de cabezas y los generaliza con éxito para la personalización con pocos ejemplos, logrando calidad de renderizado fotorrealista, consistencia de múltiples vistas y animación estable.
English
In this paper, we present a novel 3D head avatar creation approach capable of generalizing from few-shot in-the-wild data with high-fidelity and animatable robustness. Given the underconstrained nature of this problem, incorporating prior knowledge is essential. Therefore, we propose a framework comprising prior learning and avatar creation phases. The prior learning phase leverages 3D head priors derived from a large-scale multi-view dynamic dataset, and the avatar creation phase applies these priors for few-shot personalization. Our approach effectively captures these priors by utilizing a Gaussian Splatting-based auto-decoder network with part-based dynamic modeling. Our method employs identity-shared encoding with personalized latent codes for individual identities to learn the attributes of Gaussian primitives. During the avatar creation phase, we achieve fast head avatar personalization by leveraging inversion and fine-tuning strategies. Extensive experiments demonstrate that our model effectively exploits head priors and successfully generalizes them to few-shot personalization, achieving photo-realistic rendering quality, multi-view consistency, and stable animation.

Summary

AI-Generated Summary

PDF152November 28, 2024