ChatPaper.aiChatPaper

HeadGAP: Few-shot 3D Hoofdavatar via Generaliseerbare Gaussische Priors

HeadGAP: Few-shot 3D Head Avatar via Generalizable Gaussian Priors

August 12, 2024
Auteurs: Xiaozheng Zheng, Chao Wen, Zhaohu Li, Weiyi Zhang, Zhuo Su, Xu Chang, Yang Zhao, Zheng Lv, Xiaoyuan Zhang, Yongjie Zhang, Guidong Wang, Lan Xu
cs.AI

Samenvatting

In dit artikel presenteren we een nieuwe aanpak voor het creëren van 3D-hoofdavatars die in staat is om te generaliseren vanuit weinig voorbeelden van real-world data met hoge kwaliteit en robuuste animatie. Gezien het onderbepaalde karakter van dit probleem, is het integreren van voorkennis essentieel. Daarom stellen we een raamwerk voor dat bestaat uit een fase voor het leren van voorkennis en een fase voor het creëren van avatars. De fase voor het leren van voorkennis maakt gebruik van 3D-hoofdvoorkennis afgeleid van een grootschalige multi-view dynamische dataset, en de fase voor het creëren van avatars past deze voorkennis toe voor personalisatie met weinig voorbeelden. Onze aanpak vangt deze voorkennis effectief op door gebruik te maken van een op Gaussische Splatting gebaseerd auto-decoder netwerk met dynamische modellering op basis van onderdelen. Onze methode maakt gebruik van identiteit-gedeelde codering met gepersonaliseerde latente codes voor individuele identiteiten om de attributen van Gaussische primitieven te leren. Tijdens de fase voor het creëren van avatars bereiken we snelle personalisatie van hoofdavatars door inversie- en fine-tuningstrategieën toe te passen. Uitgebreide experimenten tonen aan dat ons model effectief gebruik maakt van hoofdvoorkennis en deze succesvol generaliseert naar personalisatie met weinig voorbeelden, waarbij fotorealistische renderkwaliteit, multi-view consistentie en stabiele animatie worden bereikt.
English
In this paper, we present a novel 3D head avatar creation approach capable of generalizing from few-shot in-the-wild data with high-fidelity and animatable robustness. Given the underconstrained nature of this problem, incorporating prior knowledge is essential. Therefore, we propose a framework comprising prior learning and avatar creation phases. The prior learning phase leverages 3D head priors derived from a large-scale multi-view dynamic dataset, and the avatar creation phase applies these priors for few-shot personalization. Our approach effectively captures these priors by utilizing a Gaussian Splatting-based auto-decoder network with part-based dynamic modeling. Our method employs identity-shared encoding with personalized latent codes for individual identities to learn the attributes of Gaussian primitives. During the avatar creation phase, we achieve fast head avatar personalization by leveraging inversion and fine-tuning strategies. Extensive experiments demonstrate that our model effectively exploits head priors and successfully generalizes them to few-shot personalization, achieving photo-realistic rendering quality, multi-view consistency, and stable animation.
PDF152November 28, 2024