ChatPaper.aiChatPaper

AniPortraitGAN: Geração de Retratos 3D Animáveis a partir de Coleções de Imagens 2D

AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image Collections

September 5, 2023
Autores: Yue Wu, Sicheng Xu, Jianfeng Xiang, Fangyun Wei, Qifeng Chen, Jiaolong Yang, Xin Tong
cs.AI

Resumo

GANs 3D animáveis anteriores para geração de humanos focaram principalmente ou na cabeça ou no corpo inteiro. No entanto, vídeos apenas da cabeça são relativamente incomuns na vida real, e a geração do corpo inteiro geralmente não lida com o controle de expressões faciais e ainda enfrenta desafios na geração de resultados de alta qualidade. Visando avatares de vídeo aplicáveis, apresentamos uma GAN 3D animável que gera imagens de retrato com controle de expressão facial, pose da cabeça e movimentos dos ombros. É um modelo generativo treinado em coleções de imagens 2D não estruturadas sem o uso de dados 3D ou de vídeo. Para a nova tarefa, baseamos nosso método na representação de variedade de radiância generativa e a equipamos com deformações faciais e cabeça-ombros aprendíveis. Um esquema de renderização com câmera dupla e aprendizado adversário é proposto para melhorar a qualidade das faces geradas, o que é crítico para imagens de retrato. Uma rede de processamento de deformação de pose é desenvolvida para gerar deformações plausíveis em regiões desafiadoras, como cabelos longos. Experimentos mostram que nosso método, treinado em imagens 2D não estruturadas, pode gerar retratos 3D diversos e de alta qualidade com controle desejado sobre diferentes propriedades.
English
Previous animatable 3D-aware GANs for human generation have primarily focused on either the human head or full body. However, head-only videos are relatively uncommon in real life, and full body generation typically does not deal with facial expression control and still has challenges in generating high-quality results. Towards applicable video avatars, we present an animatable 3D-aware GAN that generates portrait images with controllable facial expression, head pose, and shoulder movements. It is a generative model trained on unstructured 2D image collections without using 3D or video data. For the new task, we base our method on the generative radiance manifold representation and equip it with learnable facial and head-shoulder deformations. A dual-camera rendering and adversarial learning scheme is proposed to improve the quality of the generated faces, which is critical for portrait images. A pose deformation processing network is developed to generate plausible deformations for challenging regions such as long hair. Experiments show that our method, trained on unstructured 2D images, can generate diverse and high-quality 3D portraits with desired control over different properties.
PDF223February 8, 2026