ChatPaper.aiChatPaper

DREAM-Talk: Diffusionsbasierte realistische emotionale audio-gesteuerte Methode zur Generierung von sprechenden Gesichtern aus Einzelbildern

DREAM-Talk: Diffusion-based Realistic Emotional Audio-driven Method for Single Image Talking Face Generation

December 21, 2023
Autoren: Chenxu Zhang, Chao Wang, Jianfeng Zhang, Hongyi Xu, Guoxian Song, You Xie, Linjie Luo, Yapeng Tian, Xiaohu Guo, Jiashi Feng
cs.AI

Zusammenfassung

Die Erzeugung emotionaler sprechender Gesichter aus einem einzigen Porträtbild bleibt eine erhebliche Herausforderung. Die gleichzeitige Erreichung von ausdrucksstarkem emotionalem Sprechen und präziser Lippensynchronisation ist besonders schwierig, da die Ausdruckskraft oft zugunsten der Genauigkeit der Lippensynchronisation beeinträchtigt wird. Wie in vielen früheren Arbeiten weit verbreitet, gelingt es dem LSTM-Netzwerk oft nicht, die Feinheiten und Variationen emotionaler Ausdrücke zu erfassen. Um diese Herausforderungen zu bewältigen, stellen wir DREAM-Talk vor, ein zweistufiges, diffusionsbasiertes, audio-gesteuertes Framework, das speziell für die gleichzeitige Erzeugung vielfältiger Ausdrücke und präziser Lippensynchronisation entwickelt wurde. In der ersten Stufe schlagen wir EmoDiff vor, ein neuartiges Diffusionsmodul, das vielfältige, hochdynamische emotionale Ausdrücke und Kopfhaltungen in Übereinstimmung mit dem Audio und dem referenzierten Emotionsstil erzeugt. Angesichts der starken Korrelation zwischen Lippenbewegung und Audio verfeinern wir dann die Dynamik mit verbesserter Lippensynchronisationsgenauigkeit unter Verwendung von Audiofeatures und Emotionsstil. Zu diesem Zweck setzen wir ein Video-zu-Video-Rendering-Modul ein, um die Ausdrücke und Lippenbewegungen von unserem Proxy-3D-Avatar auf ein beliebiges Porträt zu übertragen. Sowohl quantitativ als auch qualitativ übertrifft DREAM-Talk die derzeit besten Methoden in Bezug auf Ausdruckskraft, Lippensynchronisationsgenauigkeit und perzeptive Qualität.
English
The generation of emotional talking faces from a single portrait image remains a significant challenge. The simultaneous achievement of expressive emotional talking and accurate lip-sync is particularly difficult, as expressiveness is often compromised for the accuracy of lip-sync. As widely adopted by many prior works, the LSTM network often fails to capture the subtleties and variations of emotional expressions. To address these challenges, we introduce DREAM-Talk, a two-stage diffusion-based audio-driven framework, tailored for generating diverse expressions and accurate lip-sync concurrently. In the first stage, we propose EmoDiff, a novel diffusion module that generates diverse highly dynamic emotional expressions and head poses in accordance with the audio and the referenced emotion style. Given the strong correlation between lip motion and audio, we then refine the dynamics with enhanced lip-sync accuracy using audio features and emotion style. To this end, we deploy a video-to-video rendering module to transfer the expressions and lip motions from our proxy 3D avatar to an arbitrary portrait. Both quantitatively and qualitatively, DREAM-Talk outperforms state-of-the-art methods in terms of expressiveness, lip-sync accuracy and perceptual quality.
PDF292December 15, 2024