Loopy: Domando Avatar de Retrato Impulsionado por Áudio com Dependência de Movimento de Longo Prazo
Loopy: Taming Audio-Driven Portrait Avatar with Long-Term Motion Dependency
September 4, 2024
Autores: Jianwen Jiang, Chao Liang, Jiaqi Yang, Gaojie Lin, Tianyun Zhong, Yanbo Zheng
cs.AI
Resumo
Com a introdução de técnicas de geração de vídeo baseadas em difusão, a geração de vídeo humano condicionada por áudio alcançou recentemente avanços significativos tanto na naturalidade do movimento quanto na síntese de detalhes de retrato. Devido ao controle limitado dos sinais de áudio na condução do movimento humano, os métodos existentes frequentemente adicionam sinais espaciais auxiliares para estabilizar os movimentos, o que pode comprometer a naturalidade e liberdade de movimento. Neste artigo, propomos um modelo de difusão de vídeo condicionado apenas por áudio de ponta a ponta chamado Loopy. Especificamente, projetamos um módulo temporal inter e intra-clip e um módulo de áudio para latentes, permitindo que o modelo aproveite informações de movimento de longo prazo dos dados para aprender padrões de movimento naturais e melhorar a correlação entre áudio e movimento de retrato. Este método elimina a necessidade de modelos de movimento espacial especificados manualmente usados em métodos existentes para restringir o movimento durante a inferência. Experimentos extensos mostram que o Loopy supera os modelos de difusão de retrato conduzidos por áudio recentes, fornecendo resultados mais realistas e de alta qualidade em vários cenários.
English
With the introduction of diffusion-based video generation techniques,
audio-conditioned human video generation has recently achieved significant
breakthroughs in both the naturalness of motion and the synthesis of portrait
details. Due to the limited control of audio signals in driving human motion,
existing methods often add auxiliary spatial signals to stabilize movements,
which may compromise the naturalness and freedom of motion. In this paper, we
propose an end-to-end audio-only conditioned video diffusion model named Loopy.
Specifically, we designed an inter- and intra-clip temporal module and an
audio-to-latents module, enabling the model to leverage long-term motion
information from the data to learn natural motion patterns and improving
audio-portrait movement correlation. This method removes the need for manually
specified spatial motion templates used in existing methods to constrain motion
during inference. Extensive experiments show that Loopy outperforms recent
audio-driven portrait diffusion models, delivering more lifelike and
high-quality results across various scenarios.