Voir et Entendre : Génération visuelle-audio en domaine ouvert avec des aligneurs latents de diffusion
Seeing and Hearing: Open-domain Visual-Audio Generation with Diffusion Latent Aligners
February 27, 2024
Auteurs: Yazhou Xing, Yingqing He, Zeyue Tian, Xintao Wang, Qifeng Chen
cs.AI
Résumé
La création de contenus vidéo et audio constitue la technique centrale de l'industrie cinématographique et des utilisateurs professionnels. Récemment, les méthodes existantes basées sur la diffusion abordent la génération vidéo et audio séparément, ce qui entrave le transfert de cette technologie du milieu académique vers l'industrie. Dans ce travail, nous visons à combler cet écart en proposant un cadre d'optimisation soigneusement conçu pour la génération croisée et conjointe visuelle-audio. Nous observons la puissante capacité de génération des modèles existants de génération vidéo ou audio. Ainsi, plutôt que d'entraîner des modèles géants à partir de zéro, nous proposons de relier les modèles existants performants à travers un espace de représentation latente partagé. Plus précisément, nous proposons un aligneur latent multimodal basé sur le modèle ImageBind pré-entraîné. Notre aligneur latent partage un principe similaire à celui du guidage par classifieur qui oriente le processus de débruitage par diffusion pendant l'inférence. Grâce à une stratégie d'optimisation et des fonctions de perte soigneusement conçues, nous démontrons la performance supérieure de notre méthode sur les tâches de génération conjointe vidéo-audio, de génération audio guidée par le visuel et de génération visuelle guidée par l'audio. Le site web du projet est disponible à l'adresse suivante : https://yzxing87.github.io/Seeing-and-Hearing/
English
Video and audio content creation serves as the core technique for the movie
industry and professional users. Recently, existing diffusion-based methods
tackle video and audio generation separately, which hinders the technique
transfer from academia to industry. In this work, we aim at filling the gap,
with a carefully designed optimization-based framework for cross-visual-audio
and joint-visual-audio generation. We observe the powerful generation ability
of off-the-shelf video or audio generation models. Thus, instead of training
the giant models from scratch, we propose to bridge the existing strong models
with a shared latent representation space. Specifically, we propose a
multimodality latent aligner with the pre-trained ImageBind model. Our latent
aligner shares a similar core as the classifier guidance that guides the
diffusion denoising process during inference time. Through carefully designed
optimization strategy and loss functions, we show the superior performance of
our method on joint video-audio generation, visual-steered audio generation,
and audio-steered visual generation tasks. The project website can be found at
https://yzxing87.github.io/Seeing-and-Hearing/