ChatPaper.aiChatPaper

MovieDreamer : Génération hiérarchique pour des séquences visuelles longues et cohérentes

MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence

July 23, 2024
Auteurs: Canyu Zhao, Mingyu Liu, Wen Wang, Jianlong Yuan, Hao Chen, Bo Zhang, Chunhua Shen
cs.AI

Résumé

Les récents progrès dans la génération de vidéos ont principalement exploité les modèles de diffusion pour des contenus de courte durée. Cependant, ces approches peinent souvent à modéliser des narrations complexes et à maintenir la cohérence des personnages sur de longues périodes, ce qui est essentiel pour la production de vidéos longues comme les films. Nous proposons MovieDreamer, un cadre hiérarchique novateur qui intègre les forces des modèles autorégressifs avec le rendu basé sur la diffusion pour ouvrir la voie à la génération de vidéos de longue durée avec des progressions narratives complexes et une haute fidélité visuelle. Notre approche utilise des modèles autorégressifs pour assurer la cohérence narrative globale, en prédisant des séquences de tokens visuels qui sont ensuite transformés en images vidéo de haute qualité grâce au rendu par diffusion. Cette méthode s'apparente aux processus traditionnels de production cinématographique, où les histoires complexes sont décomposées en scènes gérables. De plus, nous employons un script multimodal qui enrichit les descriptions de scènes avec des informations détaillées sur les personnages et le style visuel, améliorant ainsi la continuité et l'identité des personnages à travers les scènes. Nous présentons des expériences approfondies couvrant divers genres cinématographiques, démontrant que notre approche non seulement atteint une qualité visuelle et narrative supérieure, mais étend également de manière significative la durée des contenus générés au-delà des capacités actuelles. Page d'accueil : https://aim-uofa.github.io/MovieDreamer/.
English
Recent advancements in video generation have primarily leveraged diffusion models for short-duration content. However, these approaches often fall short in modeling complex narratives and maintaining character consistency over extended periods, which is essential for long-form video production like movies. We propose MovieDreamer, a novel hierarchical framework that integrates the strengths of autoregressive models with diffusion-based rendering to pioneer long-duration video generation with intricate plot progressions and high visual fidelity. Our approach utilizes autoregressive models for global narrative coherence, predicting sequences of visual tokens that are subsequently transformed into high-quality video frames through diffusion rendering. This method is akin to traditional movie production processes, where complex stories are factorized down into manageable scene capturing. Further, we employ a multimodal script that enriches scene descriptions with detailed character information and visual style, enhancing continuity and character identity across scenes. We present extensive experiments across various movie genres, demonstrating that our approach not only achieves superior visual and narrative quality but also effectively extends the duration of generated content significantly beyond current capabilities. Homepage: https://aim-uofa.github.io/MovieDreamer/.

Summary

AI-Generated Summary

PDF312November 28, 2024