ChatPaper.aiChatPaper

UltrAvatar: Un Modello di Diffusione per Avatar 3D Animabili e Realistici con Texture Guidate dall'Autenticità

UltrAvatar: A Realistic Animatable 3D Avatar Diffusion Model with Authenticity Guided Textures

January 20, 2024
Autori: Mingyuan Zhou, Rakib Hyder, Ziwei Xuan, Guojun Qi
cs.AI

Abstract

I recenti progressi nella generazione di avatar 3D hanno attirato notevole attenzione. Queste innovazioni mirano a produrre avatar animabili più realistici, riducendo il divario tra esperienze virtuali e reali. La maggior parte dei lavori esistenti utilizza la funzione di perdita Score Distillation Sampling (SDS), combinata con un renderer differenziabile e una condizione testuale, per guidare un modello di diffusione nella generazione di avatar 3D. Tuttavia, l'SDS spesso produce risultati eccessivamente levigati con pochi dettagli facciali, mancando quindi della diversità rispetto al campionamento ancestrale. D'altro canto, altri lavori generano avatar 3D a partire da una singola immagine, dove le sfide legate a effetti di illuminazione indesiderati, prospettive visive e qualità inferiore dell'immagine rendono difficile ricostruire in modo affidabile le mesh 3D del volto con texture complete e allineate. In questo articolo, proponiamo un nuovo approccio per la generazione di avatar 3D, denominato UltrAvatar, che offre una maggiore fedeltà della geometria e una qualità superiore delle texture basate su rendering fisicamente corretto (PBR) senza effetti di illuminazione indesiderati. A tal fine, l'approccio proposto presenta un modello di estrazione del colore diffuso e un modello di diffusione delle texture guidato dall'autenticità. Il primo rimuove gli effetti di illuminazione indesiderati per rivelare i veri colori diffusi, consentendo così agli avatar generati di essere renderizzati in diverse condizioni di illuminazione. Il secondo segue due guide basate su gradienti per generare texture PBR che rendono meglio le caratteristiche e i dettagli dell'identità facciale, allineandosi più precisamente con la geometria della mesh 3D. Dimostriamo l'efficacia e la robustezza del metodo proposto, che supera di gran lunga i metodi all'avanguardia negli esperimenti.
English
Recent advances in 3D avatar generation have gained significant attentions. These breakthroughs aim to produce more realistic animatable avatars, narrowing the gap between virtual and real-world experiences. Most of existing works employ Score Distillation Sampling (SDS) loss, combined with a differentiable renderer and text condition, to guide a diffusion model in generating 3D avatars. However, SDS often generates oversmoothed results with few facial details, thereby lacking the diversity compared with ancestral sampling. On the other hand, other works generate 3D avatar from a single image, where the challenges of unwanted lighting effects, perspective views, and inferior image quality make them difficult to reliably reconstruct the 3D face meshes with the aligned complete textures. In this paper, we propose a novel 3D avatar generation approach termed UltrAvatar with enhanced fidelity of geometry, and superior quality of physically based rendering (PBR) textures without unwanted lighting. To this end, the proposed approach presents a diffuse color extraction model and an authenticity guided texture diffusion model. The former removes the unwanted lighting effects to reveal true diffuse colors so that the generated avatars can be rendered under various lighting conditions. The latter follows two gradient-based guidances for generating PBR textures to render diverse face-identity features and details better aligning with 3D mesh geometry. We demonstrate the effectiveness and robustness of the proposed method, outperforming the state-of-the-art methods by a large margin in the experiments.
PDF72December 15, 2024