ChatPaper.aiChatPaper

CINEMA:MLLMベースのガイダンスによる一貫性のあるマルチサブジェクト動画生成

CINEMA: Coherent Multi-Subject Video Generation via MLLM-Based Guidance

March 13, 2025
著者: Yufan Deng, Xun Guo, Yizhi Wang, Jacob Zhiyuan Fang, Angtian Wang, Shenghai Yuan, Yiding Yang, Bo Liu, Haibin Huang, Chongyang Ma
cs.AI

要旨

ディープジェネレーティブモデル、特に拡散モデルの登場により、ビデオ生成は目覚ましい進歩を遂げてきました。既存の手法は、テキストプロンプトや単一画像から高品質なビデオを生成する点で優れていますが、パーソナライズされた複数主体のビデオ生成は、まだほとんど未開拓の課題です。このタスクでは、それぞれが別々の参照画像で定義された複数の異なる主体を組み込み、時間的および空間的な一貫性を保ちながらビデオを合成することが求められます。現在のアプローチは、主に主体画像をテキストプロンプト内のキーワードにマッピングすることに依存しており、曖昧さを引き起こし、主体間の関係を効果的にモデル化する能力を制限しています。本論文では、マルチモーダル大規模言語モデル(MLLM)を活用した、一貫性のある複数主体ビデオ生成のための新しいフレームワーク「CINEMA」を提案します。私たちのアプローチは、主体画像とテキストエンティティ間の明示的な対応関係を必要とせず、曖昧さを軽減し、アノテーション作業を削減します。MLLMを活用して主体間の関係を解釈することで、大規模で多様なデータセットをトレーニングに使用できるスケーラビリティを実現します。さらに、私たちのフレームワークは、異なる数の主体に条件付けすることが可能であり、パーソナライズされたコンテンツ作成においてより大きな柔軟性を提供します。広範な評価を通じて、私たちのアプローチが主体の一貫性とビデオ全体のコヒーレンスを大幅に改善し、ストーリーテリング、インタラクティブメディア、パーソナライズドビデオ生成における先進的な応用への道を開くことを実証します。
English
Video generation has witnessed remarkable progress with the advent of deep generative models, particularly diffusion models. While existing methods excel in generating high-quality videos from text prompts or single images, personalized multi-subject video generation remains a largely unexplored challenge. This task involves synthesizing videos that incorporate multiple distinct subjects, each defined by separate reference images, while ensuring temporal and spatial consistency. Current approaches primarily rely on mapping subject images to keywords in text prompts, which introduces ambiguity and limits their ability to model subject relationships effectively. In this paper, we propose CINEMA, a novel framework for coherent multi-subject video generation by leveraging Multimodal Large Language Model (MLLM). Our approach eliminates the need for explicit correspondences between subject images and text entities, mitigating ambiguity and reducing annotation effort. By leveraging MLLM to interpret subject relationships, our method facilitates scalability, enabling the use of large and diverse datasets for training. Furthermore, our framework can be conditioned on varying numbers of subjects, offering greater flexibility in personalized content creation. Through extensive evaluations, we demonstrate that our approach significantly improves subject consistency, and overall video coherence, paving the way for advanced applications in storytelling, interactive media, and personalized video generation.

Summary

AI-Generated Summary

PDF112March 14, 2025