ChatPaper.aiChatPaper

Modélisation des espaces d'état sélectifs masqués pour la diffusion vidéo contrôlée audio-visuelle dans la génération de têtes parlantes naturelles

Audio-visual Controlled Video Diffusion with Masked Selective State Spaces Modeling for Natural Talking Head Generation

April 3, 2025
Auteurs: Fa-Ting Hong, Zunnan Xu, Zixiang Zhou, Jun Zhou, Xiu Li, Qin Lin, Qinglin Lu, Dan Xu
cs.AI

Résumé

La synthèse de têtes parlantes est essentielle pour les avatars virtuels et l'interaction homme-machine. Cependant, la plupart des méthodes existantes se limitent généralement à accepter un contrôle à partir d'une seule modalité principale, ce qui restreint leur utilité pratique. À cette fin, nous présentons ACTalker, un framework de diffusion vidéo de bout en bout qui prend en charge à la fois le contrôle multi-signaux et le contrôle mono-signal pour la génération de vidéos de têtes parlantes. Pour le contrôle multiple, nous concevons une structure mamba parallèle avec plusieurs branches, chacune utilisant un signal de contrôle distinct pour manipuler des régions faciales spécifiques. Un mécanisme de porte est appliqué à travers toutes les branches, offrant un contrôle flexible sur la génération vidéo. Pour assurer une coordination naturelle de la vidéo contrôlée à la fois temporellement et spatialement, nous utilisons la structure mamba, qui permet aux signaux de contrôle de manipuler les tokens de caractéristiques dans les deux dimensions au sein de chaque branche. De plus, nous introduisons une stratégie de masque-drop qui permet à chaque signal de contrôle de manipuler indépendamment sa région faciale correspondante dans la structure mamba, évitant ainsi les conflits de contrôle. Les résultats expérimentaux démontrent que notre méthode produit des vidéos faciales naturelles pilotées par divers signaux et que la couche mamba intègre de manière fluide plusieurs modalités de contrôle sans conflit.
English
Talking head synthesis is vital for virtual avatars and human-computer interaction. However, most existing methods are typically limited to accepting control from a single primary modality, restricting their practical utility. To this end, we introduce ACTalker, an end-to-end video diffusion framework that supports both multi-signals control and single-signal control for talking head video generation. For multiple control, we design a parallel mamba structure with multiple branches, each utilizing a separate driving signal to control specific facial regions. A gate mechanism is applied across all branches, providing flexible control over video generation. To ensure natural coordination of the controlled video both temporally and spatially, we employ the mamba structure, which enables driving signals to manipulate feature tokens across both dimensions in each branch. Additionally, we introduce a mask-drop strategy that allows each driving signal to independently control its corresponding facial region within the mamba structure, preventing control conflicts. Experimental results demonstrate that our method produces natural-looking facial videos driven by diverse signals and that the mamba layer seamlessly integrates multiple driving modalities without conflict.

Summary

AI-Generated Summary

PDF447April 4, 2025