ChatPaper.aiChatPaper

MovieDreamer: Generazione Gerarchica per Sequenze Visive Lunghe e Coerenti

MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence

July 23, 2024
Autori: Canyu Zhao, Mingyu Liu, Wen Wang, Jianlong Yuan, Hao Chen, Bo Zhang, Chunhua Shen
cs.AI

Abstract

I recenti progressi nella generazione di video si sono principalmente basati su modelli di diffusione per contenuti di breve durata. Tuttavia, questi approcci spesso non riescono a modellare narrazioni complesse e a mantenere la coerenza dei personaggi per periodi prolungati, un aspetto essenziale per la produzione di video di lunga durata come i film. Proponiamo MovieDreamer, un nuovo framework gerarchico che integra i punti di forza dei modelli autoregressivi con il rendering basato su diffusione per pionierizzare la generazione di video di lunga durata con progressioni narrative intricate e alta fedeltà visiva. Il nostro approccio utilizza modelli autoregressivi per garantire la coerenza narrativa globale, prevedendo sequenze di token visivi che vengono successivamente trasformati in fotogrammi video di alta qualità attraverso il rendering di diffusione. Questo metodo è simile ai processi tradizionali di produzione cinematografica, in cui storie complesse vengono scomposte in scene gestibili. Inoltre, impieghiamo uno script multimodale che arricchisce le descrizioni delle scene con informazioni dettagliate sui personaggi e sullo stile visivo, migliorando la continuità e l'identità dei personaggi tra le scene. Presentiamo esperimenti estesi su vari generi cinematografici, dimostrando che il nostro approccio non solo raggiunge una qualità visiva e narrativa superiore, ma estende anche in modo significativo la durata dei contenuti generati, superando le attuali capacità. Homepage: https://aim-uofa.github.io/MovieDreamer/.
English
Recent advancements in video generation have primarily leveraged diffusion models for short-duration content. However, these approaches often fall short in modeling complex narratives and maintaining character consistency over extended periods, which is essential for long-form video production like movies. We propose MovieDreamer, a novel hierarchical framework that integrates the strengths of autoregressive models with diffusion-based rendering to pioneer long-duration video generation with intricate plot progressions and high visual fidelity. Our approach utilizes autoregressive models for global narrative coherence, predicting sequences of visual tokens that are subsequently transformed into high-quality video frames through diffusion rendering. This method is akin to traditional movie production processes, where complex stories are factorized down into manageable scene capturing. Further, we employ a multimodal script that enriches scene descriptions with detailed character information and visual style, enhancing continuity and character identity across scenes. We present extensive experiments across various movie genres, demonstrating that our approach not only achieves superior visual and narrative quality but also effectively extends the duration of generated content significantly beyond current capabilities. Homepage: https://aim-uofa.github.io/MovieDreamer/.
PDF302November 28, 2024