ChatPaper.aiChatPaper

FantasyPortrait: Aprimorando a Animação de Retratos com Múltiplos Personagens por meio de Transformadores de Difusão Aumentados por Expressões

FantasyPortrait: Enhancing Multi-Character Portrait Animation with Expression-Augmented Diffusion Transformers

July 17, 2025
Autores: Qiang Wang, Mengchao Wang, Fan Jiang, Yaqi Fan, Yonggang Qi, Mu Xu
cs.AI

Resumo

Produzir animações faciais expressivas a partir de imagens estáticas é uma tarefa desafiadora. Métodos anteriores que dependem de priors geométricos explícitos (por exemplo, marcos faciais ou 3DMM) frequentemente sofrem com artefatos em reencenação cruzada e têm dificuldade em capturar emoções sutis. Além disso, as abordagens existentes não oferecem suporte para animação de múltiplos personagens, pois as características de direção de diferentes indivíduos frequentemente interferem umas nas outras, complicando a tarefa. Para enfrentar esses desafios, propomos o FantasyPortrait, um framework baseado em transformadores de difusão capaz de gerar animações de alta fidelidade e ricas em emoções tanto para cenários de um único personagem quanto para múltiplos personagens. Nosso método introduz uma estratégia de aprendizado aumentado por expressão que utiliza representações implícitas para capturar dinâmicas faciais independentes de identidade, melhorando a capacidade do modelo de renderizar emoções em detalhes finos. Para o controle de múltiplos personagens, projetamos um mecanismo de atenção cruzada mascarada que garante a geração de expressões independentes, porém coordenadas, prevenindo efetivamente a interferência de características. Para avançar a pesquisa nessa área, propomos o conjunto de dados Multi-Expr e o ExprBench, que são conjuntos de dados e benchmarks especificamente projetados para treinar e avaliar animações de retratos de múltiplos personagens. Experimentos extensivos demonstram que o FantasyPortrait supera significativamente os métodos state-of-the-art tanto em métricas quantitativas quanto em avaliações qualitativas, destacando-se especialmente em contextos desafiadores de reencenação cruzada e múltiplos personagens. Nossa página do projeto está disponível em https://fantasy-amap.github.io/fantasy-portrait/.
English
Producing expressive facial animations from static images is a challenging task. Prior methods relying on explicit geometric priors (e.g., facial landmarks or 3DMM) often suffer from artifacts in cross reenactment and struggle to capture subtle emotions. Furthermore, existing approaches lack support for multi-character animation, as driving features from different individuals frequently interfere with one another, complicating the task. To address these challenges, we propose FantasyPortrait, a diffusion transformer based framework capable of generating high-fidelity and emotion-rich animations for both single- and multi-character scenarios. Our method introduces an expression-augmented learning strategy that utilizes implicit representations to capture identity-agnostic facial dynamics, enhancing the model's ability to render fine-grained emotions. For multi-character control, we design a masked cross-attention mechanism that ensures independent yet coordinated expression generation, effectively preventing feature interference. To advance research in this area, we propose the Multi-Expr dataset and ExprBench, which are specifically designed datasets and benchmarks for training and evaluating multi-character portrait animations. Extensive experiments demonstrate that FantasyPortrait significantly outperforms state-of-the-art methods in both quantitative metrics and qualitative evaluations, excelling particularly in challenging cross reenactment and multi-character contexts. Our project page is https://fantasy-amap.github.io/fantasy-portrait/.
PDF221July 18, 2025