ChatPaper.aiChatPaper

FantasyID : Génération de vidéos préservant l'identité avec amélioration des connaissances faciales

FantasyID: Face Knowledge Enhanced ID-Preserving Video Generation

February 19, 2025
Auteurs: Yunpeng Zhang, Qiang Wang, Fan Jiang, Yaqi Fan, Mu Xu, Yonggang Qi
cs.AI

Résumé

Les approches sans réglage adaptant les modèles de diffusion vidéo pré-entraînés à grande échelle pour la génération de vidéos à partir de texte tout en préservant l'identité (IPT2V) ont gagné en popularité récemment en raison de leur efficacité et de leur évolutivité. Cependant, des défis importants subsistent pour obtenir des dynamiques faciales satisfaisantes tout en maintenant l'identité inchangée. Dans ce travail, nous présentons un nouveau cadre IPT2V sans réglage en améliorant la connaissance des visages du modèle vidéo pré-entraîné basé sur des transformateurs de diffusion (DiT), baptisé FantasyID. Essentiellement, une information géométrique faciale 3D est intégrée pour garantir des structures faciales plausibles lors de la synthèse vidéo. Pour empêcher le modèle d'apprendre des raccourcis de copier-coller qui reproduisent simplement le visage de référence à travers les images, une stratégie d'augmentation faciale multi-vues est conçue pour capturer diverses caractéristiques d'apparence faciale 2D, augmentant ainsi la dynamique des expressions faciales et des poses de tête. De plus, après avoir fusionné les caractéristiques 2D et 3D comme guide, au lieu d'utiliser naïvement l'attention croisée pour injecter les indices de guidage dans les couches DiT, un mécanisme adaptatif apprenable sensible aux couches est employé pour injecter sélectivement les caractéristiques fusionnées dans chaque couche DiT individuelle, facilitant une modélisation équilibrée de la préservation de l'identité et des dynamiques de mouvement. Les résultats expérimentaux valident la supériorité de notre modèle par rapport aux méthodes IPT2V sans réglage actuelles.
English
Tuning-free approaches adapting large-scale pre-trained video diffusion models for identity-preserving text-to-video generation (IPT2V) have gained popularity recently due to their efficacy and scalability. However, significant challenges remain to achieve satisfied facial dynamics while keeping the identity unchanged. In this work, we present a novel tuning-free IPT2V framework by enhancing face knowledge of the pre-trained video model built on diffusion transformers (DiT), dubbed FantasyID. Essentially, 3D facial geometry prior is incorporated to ensure plausible facial structures during video synthesis. To prevent the model from learning copy-paste shortcuts that simply replicate reference face across frames, a multi-view face augmentation strategy is devised to capture diverse 2D facial appearance features, hence increasing the dynamics over the facial expressions and head poses. Additionally, after blending the 2D and 3D features as guidance, instead of naively employing cross-attention to inject guidance cues into DiT layers, a learnable layer-aware adaptive mechanism is employed to selectively inject the fused features into each individual DiT layers, facilitating balanced modeling of identity preservation and motion dynamics. Experimental results validate our model's superiority over the current tuning-free IPT2V methods.

Summary

AI-Generated Summary

PDF92February 24, 2025