ChatPaper.aiChatPaper

Audio-visueel Gecontroleerde Video-diffusie met Gemaskeerde Selectieve Toestandsruimte-modellering voor Natuurlijke Talking Head-generatie

Audio-visual Controlled Video Diffusion with Masked Selective State Spaces Modeling for Natural Talking Head Generation

April 3, 2025
Auteurs: Fa-Ting Hong, Zunnan Xu, Zixiang Zhou, Jun Zhou, Xiu Li, Qin Lin, Qinglin Lu, Dan Xu
cs.AI

Samenvatting

Het synthetiseren van pratende hoofden is essentieel voor virtuele avatars en mens-computerinteractie. De meeste bestaande methoden zijn echter doorgaans beperkt tot het accepteren van controle vanuit één primaire modaliteit, wat hun praktische bruikbaarheid beperkt. Daarom introduceren we ACTalker, een end-to-end videodiffusiekader dat zowel multi-signaalcontrole als enkelvoudige signaalcontrole ondersteunt voor het genereren van pratende hoofdvideo's. Voor meervoudige controle hebben we een parallelle mamba-structuur ontworpen met meerdere takken, waarbij elke tak een apart stuursignaal gebruikt om specifieke gezichtsregio's te besturen. Een poortmechanisme wordt toegepast over alle takken, wat flexibele controle biedt over de videogeneratie. Om een natuurlijke coördinatie van de gecontroleerde video zowel temporeel als ruimtelijk te waarborgen, gebruiken we de mamba-structuur, waardoor stuursignalen feature-tokens in beide dimensies in elke tak kunnen manipuleren. Daarnaast introduceren we een masker-dropstrategie die ervoor zorgt dat elk stuursignaal onafhankelijk zijn corresponderende gezichtsregio binnen de mamba-structuur kan besturen, waardoor controleconflicten worden voorkomen. Experimentele resultaten tonen aan dat onze methode natuurlijk ogende gezichtsvideo's produceert die worden aangestuurd door diverse signalen en dat de mambalaag naadloos meerdere stuurmodaliteiten integreert zonder conflicten.
English
Talking head synthesis is vital for virtual avatars and human-computer interaction. However, most existing methods are typically limited to accepting control from a single primary modality, restricting their practical utility. To this end, we introduce ACTalker, an end-to-end video diffusion framework that supports both multi-signals control and single-signal control for talking head video generation. For multiple control, we design a parallel mamba structure with multiple branches, each utilizing a separate driving signal to control specific facial regions. A gate mechanism is applied across all branches, providing flexible control over video generation. To ensure natural coordination of the controlled video both temporally and spatially, we employ the mamba structure, which enables driving signals to manipulate feature tokens across both dimensions in each branch. Additionally, we introduce a mask-drop strategy that allows each driving signal to independently control its corresponding facial region within the mamba structure, preventing control conflicts. Experimental results demonstrate that our method produces natural-looking facial videos driven by diverse signals and that the mamba layer seamlessly integrates multiple driving modalities without conflict.

Summary

AI-Generated Summary

PDF447April 4, 2025