ChatPaper.aiChatPaper

Ver e Ouvir: Geração Visual-Audio de Domínio Aberto com Alinhadores Latentes de Difusão

Seeing and Hearing: Open-domain Visual-Audio Generation with Diffusion Latent Aligners

February 27, 2024
Autores: Yazhou Xing, Yingqing He, Zeyue Tian, Xintao Wang, Qifeng Chen
cs.AI

Resumo

A criação de conteúdo em vídeo e áudio serve como técnica central para a indústria cinematográfica e usuários profissionais. Recentemente, os métodos existentes baseados em difusão abordam a geração de vídeo e áudio separadamente, o que dificulta a transferência dessa técnica da academia para a indústria. Neste trabalho, visamos preencher essa lacuna com um framework cuidadosamente projetado, baseado em otimização, para geração cruzada e conjunta de conteúdo visual e auditivo. Observamos a poderosa capacidade de geração dos modelos prontos para uso de geração de vídeo ou áudio. Assim, em vez de treinar modelos gigantes do zero, propomos conectar os modelos fortes existentes por meio de um espaço de representação latente compartilhado. Especificamente, propomos um alinhador de latência multimodal com o modelo ImageBind pré-treinado. Nosso alinhador de latência compartilha um núcleo semelhante ao da orientação por classificador, que guia o processo de remoção de ruído por difusão durante o tempo de inferência. Por meio de uma estratégia de otimização e funções de perda cuidadosamente projetadas, demonstramos o desempenho superior de nosso método em tarefas de geração conjunta de vídeo e áudio, geração de áudio guiada por visão e geração visual guiada por áudio. O site do projeto pode ser encontrado em https://yzxing87.github.io/Seeing-and-Hearing/.
English
Video and audio content creation serves as the core technique for the movie industry and professional users. Recently, existing diffusion-based methods tackle video and audio generation separately, which hinders the technique transfer from academia to industry. In this work, we aim at filling the gap, with a carefully designed optimization-based framework for cross-visual-audio and joint-visual-audio generation. We observe the powerful generation ability of off-the-shelf video or audio generation models. Thus, instead of training the giant models from scratch, we propose to bridge the existing strong models with a shared latent representation space. Specifically, we propose a multimodality latent aligner with the pre-trained ImageBind model. Our latent aligner shares a similar core as the classifier guidance that guides the diffusion denoising process during inference time. Through carefully designed optimization strategy and loss functions, we show the superior performance of our method on joint video-audio generation, visual-steered audio generation, and audio-steered visual generation tasks. The project website can be found at https://yzxing87.github.io/Seeing-and-Hearing/
PDF161April 7, 2026