ChatPaper.aiChatPaper

Loopy: Domando Avatar de Retrato Impulsionado por Áudio com Dependência de Movimento de Longo Prazo

Loopy: Taming Audio-Driven Portrait Avatar with Long-Term Motion Dependency

September 4, 2024
Autores: Jianwen Jiang, Chao Liang, Jiaqi Yang, Gaojie Lin, Tianyun Zhong, Yanbo Zheng
cs.AI

Resumo

Com a introdução de técnicas de geração de vídeo baseadas em difusão, a geração de vídeo humano condicionada por áudio alcançou recentemente avanços significativos tanto na naturalidade do movimento quanto na síntese de detalhes de retrato. Devido ao controle limitado dos sinais de áudio na condução do movimento humano, os métodos existentes frequentemente adicionam sinais espaciais auxiliares para estabilizar os movimentos, o que pode comprometer a naturalidade e liberdade de movimento. Neste artigo, propomos um modelo de difusão de vídeo condicionado apenas por áudio de ponta a ponta chamado Loopy. Especificamente, projetamos um módulo temporal inter e intra-clip e um módulo de áudio para latentes, permitindo que o modelo aproveite informações de movimento de longo prazo dos dados para aprender padrões de movimento naturais e melhorar a correlação entre áudio e movimento de retrato. Este método elimina a necessidade de modelos de movimento espacial especificados manualmente usados em métodos existentes para restringir o movimento durante a inferência. Experimentos extensos mostram que o Loopy supera os modelos de difusão de retrato conduzidos por áudio recentes, fornecendo resultados mais realistas e de alta qualidade em vários cenários.
English
With the introduction of diffusion-based video generation techniques, audio-conditioned human video generation has recently achieved significant breakthroughs in both the naturalness of motion and the synthesis of portrait details. Due to the limited control of audio signals in driving human motion, existing methods often add auxiliary spatial signals to stabilize movements, which may compromise the naturalness and freedom of motion. In this paper, we propose an end-to-end audio-only conditioned video diffusion model named Loopy. Specifically, we designed an inter- and intra-clip temporal module and an audio-to-latents module, enabling the model to leverage long-term motion information from the data to learn natural motion patterns and improving audio-portrait movement correlation. This method removes the need for manually specified spatial motion templates used in existing methods to constrain motion during inference. Extensive experiments show that Loopy outperforms recent audio-driven portrait diffusion models, delivering more lifelike and high-quality results across various scenarios.
PDF9813November 16, 2024