Champ: Animação Controllável e Consistente de Imagens Humanas com Orientação Paramétrica 3D
Champ: Controllable and Consistent Human Image Animation with 3D Parametric Guidance
March 21, 2024
Autores: Shenhao Zhu, Junming Leo Chen, Zuozhuo Dai, Yinghui Xu, Xun Cao, Yao Yao, Hao Zhu, Siyu Zhu
cs.AI
Resumo
Neste estudo, introduzimos uma metodologia para animação de imagens humanas ao utilizar um modelo paramétrico humano 3D dentro de um framework de difusão latente para aprimorar o alinhamento de forma e a orientação de movimento nas técnicas atuais de geração humana. A metodologia emprega o modelo SMPL (Skinned Multi-Person Linear) como o modelo paramétrico humano 3D para estabelecer uma representação unificada da forma corporal e da pose. Isso facilita a captura precisa da geometria humana intrincada e das características de movimento a partir de vídeos de origem. Especificamente, incorporamos imagens de profundidade renderizadas, mapas normais e mapas semânticos obtidos de sequências SMPL, juntamente com orientação de movimento baseada em esqueleto, para enriquecer as condições do modelo de difusão latente com uma forma 3D abrangente e atributos detalhados de pose. Um módulo de fusão de movimento em múltiplas camadas, integrando mecanismos de auto-atenção, é empregado para fundir as representações latentes de forma e movimento no domínio espacial. Ao representar o modelo paramétrico humano 3D como a orientação de movimento, podemos realizar o alinhamento paramétrico da forma do corpo humano entre a imagem de referência e o movimento do vídeo de origem. Avaliações experimentais conduzidas em conjuntos de dados de referência demonstram a capacidade superior da metodologia em gerar animações humanas de alta qualidade que capturam com precisão tanto as variações de pose quanto de forma. Além disso, nossa abordagem também exibe capacidades de generalização superiores no conjunto de dados proposto. Página do projeto: https://fudan-generative-vision.github.io/champ.
English
In this study, we introduce a methodology for human image animation by
leveraging a 3D human parametric model within a latent diffusion framework to
enhance shape alignment and motion guidance in curernt human generative
techniques. The methodology utilizes the SMPL(Skinned Multi-Person Linear)
model as the 3D human parametric model to establish a unified representation of
body shape and pose. This facilitates the accurate capture of intricate human
geometry and motion characteristics from source videos. Specifically, we
incorporate rendered depth images, normal maps, and semantic maps obtained from
SMPL sequences, alongside skeleton-based motion guidance, to enrich the
conditions to the latent diffusion model with comprehensive 3D shape and
detailed pose attributes. A multi-layer motion fusion module, integrating
self-attention mechanisms, is employed to fuse the shape and motion latent
representations in the spatial domain. By representing the 3D human parametric
model as the motion guidance, we can perform parametric shape alignment of the
human body between the reference image and the source video motion.
Experimental evaluations conducted on benchmark datasets demonstrate the
methodology's superior ability to generate high-quality human animations that
accurately capture both pose and shape variations. Furthermore, our approach
also exhibits superior generalization capabilities on the proposed wild
dataset. Project page: https://fudan-generative-vision.github.io/champ.