Loopy: Domando Avatar de Retrato Impulsionado por Áudio com Dependência de Movimento de Longo PrazoLoopy: Taming Audio-Driven Portrait Avatar with Long-Term Motion
Dependency
Com a introdução de técnicas de geração de vídeo baseadas em difusão, a geração de vídeo humano condicionada por áudio alcançou recentemente avanços significativos tanto na naturalidade do movimento quanto na síntese de detalhes de retrato. Devido ao controle limitado dos sinais de áudio na condução do movimento humano, os métodos existentes frequentemente adicionam sinais espaciais auxiliares para estabilizar os movimentos, o que pode comprometer a naturalidade e liberdade de movimento. Neste artigo, propomos um modelo de difusão de vídeo condicionado apenas por áudio de ponta a ponta chamado Loopy. Especificamente, projetamos um módulo temporal inter e intra-clip e um módulo de áudio para latentes, permitindo que o modelo aproveite informações de movimento de longo prazo dos dados para aprender padrões de movimento naturais e melhorar a correlação entre áudio e movimento de retrato. Este método elimina a necessidade de modelos de movimento espacial especificados manualmente usados em métodos existentes para restringir o movimento durante a inferência. Experimentos extensos mostram que o Loopy supera os modelos de difusão de retrato conduzidos por áudio recentes, fornecendo resultados mais realistas e de alta qualidade em vários cenários.