ChatPaper.aiChatPaper

高度なモダリティ条件とインタラクションによるテキストから音声付き動画生成の制御

Taming Text-to-Sounding Video Generation via Advanced Modality Condition and Interaction

October 3, 2025
著者: Kaisi Guan, Xihua Wang, Zhengfeng Lai, Xin Cheng, Peng Zhang, XiaoJiang Liu, Ruihua Song, Meng Cao
cs.AI

要旨

本研究は、テキストから同期した音声付き動画を生成するという、挑戦的でありながら有望なタスクであるText-to-Sounding-Video(T2SV)生成に焦点を当てる。このタスクでは、テキスト条件に基づいて動画と音声を生成し、両モダリティがテキストと整合することを保証する。音声と動画の共同学習における進展にもかかわらず、以下の2つの重要な課題が未解決のまま残されている:(1)動画と音声のテキストが同一である単一の共有テキストキャプションは、モダリティ間の干渉を引き起こし、事前学習済みバックボーンを混乱させることがある。(2)クロスモーダル特徴間の最適な相互作用メカニズムが不明確である。これらの課題に対処するため、まず、干渉を排除するために、動画キャプションと音声キャプションのペアを生成する階層的視覚基盤型キャプショニング(HVGC)フレームワークを提案する。HVGCに基づき、さらに、双方向の情報交換を可能にする堅牢な「橋渡し」として機能するDual CrossAttention(DCA)メカニズムを採用した新規のデュアルタワーディフュージョントランスフォーマーであるBridgeDiTを導入する。これにより、意味的および時間的な同期を実現する。3つのベンチマークデータセットを用いた広範な実験と人間による評価により、本手法がほとんどの指標で最先端の結果を達成することが示された。包括的なアブレーション研究により、本提案の有効性がさらに検証され、今後のT2SVタスクに対する重要な洞察が提供される。すべてのコードとチェックポイントは公開される予定である。
English
This study focuses on a challenging yet promising task, Text-to-Sounding-Video (T2SV) generation, which aims to generate a video with synchronized audio from text conditions, meanwhile ensuring both modalities are aligned with text. Despite progress in joint audio-video training, two critical challenges still remain unaddressed: (1) a single, shared text caption where the text for video is equal to the text for audio often creates modal interference, confusing the pretrained backbones, and (2) the optimal mechanism for cross-modal feature interaction remains unclear. To address these challenges, we first propose the Hierarchical Visual-Grounded Captioning (HVGC) framework that generates pairs of disentangled captions, a video caption, and an audio caption, eliminating interference at the conditioning stage. Based on HVGC, we further introduce BridgeDiT, a novel dual-tower diffusion transformer, which employs a Dual CrossAttention (DCA) mechanism that acts as a robust ``bridge" to enable a symmetric, bidirectional exchange of information, achieving both semantic and temporal synchronization. Extensive experiments on three benchmark datasets, supported by human evaluations, demonstrate that our method achieves state-of-the-art results on most metrics. Comprehensive ablation studies further validate the effectiveness of our contributions, offering key insights for the future T2SV task. All the codes and checkpoints will be publicly released.
PDF92October 10, 2025