MovieDreamer: Generazione Gerarchica per Sequenze Visive Lunghe e Coerenti
MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence
July 23, 2024
Autori: Canyu Zhao, Mingyu Liu, Wen Wang, Jianlong Yuan, Hao Chen, Bo Zhang, Chunhua Shen
cs.AI
Abstract
I recenti progressi nella generazione di video si sono principalmente basati su modelli di diffusione per contenuti di breve durata. Tuttavia, questi approcci spesso non riescono a modellare narrazioni complesse e a mantenere la coerenza dei personaggi per periodi prolungati, un aspetto essenziale per la produzione di video di lunga durata come i film. Proponiamo MovieDreamer, un nuovo framework gerarchico che integra i punti di forza dei modelli autoregressivi con il rendering basato su diffusione per pionierizzare la generazione di video di lunga durata con progressioni narrative intricate e alta fedeltà visiva. Il nostro approccio utilizza modelli autoregressivi per garantire la coerenza narrativa globale, prevedendo sequenze di token visivi che vengono successivamente trasformati in fotogrammi video di alta qualità attraverso il rendering di diffusione. Questo metodo è simile ai processi tradizionali di produzione cinematografica, in cui storie complesse vengono scomposte in scene gestibili. Inoltre, impieghiamo uno script multimodale che arricchisce le descrizioni delle scene con informazioni dettagliate sui personaggi e sullo stile visivo, migliorando la continuità e l'identità dei personaggi tra le scene. Presentiamo esperimenti estesi su vari generi cinematografici, dimostrando che il nostro approccio non solo raggiunge una qualità visiva e narrativa superiore, ma estende anche in modo significativo la durata dei contenuti generati, superando le attuali capacità. Homepage: https://aim-uofa.github.io/MovieDreamer/.
English
Recent advancements in video generation have primarily leveraged diffusion
models for short-duration content. However, these approaches often fall short
in modeling complex narratives and maintaining character consistency over
extended periods, which is essential for long-form video production like
movies. We propose MovieDreamer, a novel hierarchical framework that integrates
the strengths of autoregressive models with diffusion-based rendering to
pioneer long-duration video generation with intricate plot progressions and
high visual fidelity. Our approach utilizes autoregressive models for global
narrative coherence, predicting sequences of visual tokens that are
subsequently transformed into high-quality video frames through diffusion
rendering. This method is akin to traditional movie production processes, where
complex stories are factorized down into manageable scene capturing. Further,
we employ a multimodal script that enriches scene descriptions with detailed
character information and visual style, enhancing continuity and character
identity across scenes. We present extensive experiments across various movie
genres, demonstrating that our approach not only achieves superior visual and
narrative quality but also effectively extends the duration of generated
content significantly beyond current capabilities. Homepage:
https://aim-uofa.github.io/MovieDreamer/.