ChatPaper.aiChatPaper

SpA2V: Aproveitando Dicas Auditivas Espaciais para Geração de Vídeo Espacialmente Consciente Orientada por Áudio

SpA2V: Harnessing Spatial Auditory Cues for Audio-driven Spatially-aware Video Generation

August 1, 2025
Autores: Kien T. Pham, Yingqing He, Yazhou Xing, Qifeng Chen, Long Chen
cs.AI

Resumo

A geração de vídeo impulsionada por áudio visa sintetizar vídeos realistas que se alinhem com gravações de áudio de entrada, semelhante à capacidade humana de visualizar cenas a partir de estímulos auditivos. No entanto, as abordagens existentes concentram-se predominantemente em explorar informações semânticas, como as classes das fontes sonoras presentes no áudio, limitando sua capacidade de gerar vídeos com conteúdo preciso e composição espacial. Em contraste, nós, humanos, não apenas identificamos naturalmente as categorias semânticas das fontes sonoras, mas também determinamos seus atributos espaciais profundamente codificados, incluindo localizações e direções de movimento. Essa informação útil pode ser elucidada ao considerar indicadores espaciais específicos derivados das propriedades físicas inerentes do som, como volume ou frequência. Como os métodos anteriores ignoram amplamente esse fator, apresentamos o SpA2V, o primeiro framework que explora explicitamente essas pistas auditivas espaciais de áudios para gerar vídeos com alta correspondência semântica e espacial. O SpA2V decompõe o processo de geração em duas etapas: 1) Planejamento de Vídeo Guiado por Áudio: Adaptamos meticulosamente um MLLM (Modelo de Linguagem Multimodal) de última geração para uma nova tarefa de aproveitar pistas espaciais e semânticas do áudio de entrada para construir Layouts de Cena de Vídeo (VSLs). Isso serve como uma representação intermediária para preencher a lacuna entre as modalidades de áudio e vídeo. 2) Geração de Vídeo Baseada em Layout: Desenvolvemos uma abordagem eficiente e eficaz para integrar perfeitamente os VSLs como orientação condicional em modelos de difusão pré-treinados, permitindo a geração de vídeos baseada em VSLs de maneira livre de treinamento. Experimentos extensivos demonstram que o SpA2V se destaca na geração de vídeos realistas com alinhamento semântico e espacial aos áudios de entrada.
English
Audio-driven video generation aims to synthesize realistic videos that align with input audio recordings, akin to the human ability to visualize scenes from auditory input. However, existing approaches predominantly focus on exploring semantic information, such as the classes of sounding sources present in the audio, limiting their ability to generate videos with accurate content and spatial composition. In contrast, we humans can not only naturally identify the semantic categories of sounding sources but also determine their deeply encoded spatial attributes, including locations and movement directions. This useful information can be elucidated by considering specific spatial indicators derived from the inherent physical properties of sound, such as loudness or frequency. As prior methods largely ignore this factor, we present SpA2V, the first framework explicitly exploits these spatial auditory cues from audios to generate videos with high semantic and spatial correspondence. SpA2V decomposes the generation process into two stages: 1) Audio-guided Video Planning: We meticulously adapt a state-of-the-art MLLM for a novel task of harnessing spatial and semantic cues from input audio to construct Video Scene Layouts (VSLs). This serves as an intermediate representation to bridge the gap between the audio and video modalities. 2) Layout-grounded Video Generation: We develop an efficient and effective approach to seamlessly integrate VSLs as conditional guidance into pre-trained diffusion models, enabling VSL-grounded video generation in a training-free manner. Extensive experiments demonstrate that SpA2V excels in generating realistic videos with semantic and spatial alignment to the input audios.
PDF62August 4, 2025