ChatPaper.aiChatPaper

MovieDreamer: Hiërarchische Generatie voor Samenhangende Lange Visuele Reeksen

MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence

July 23, 2024
Auteurs: Canyu Zhao, Mingyu Liu, Wen Wang, Jianlong Yuan, Hao Chen, Bo Zhang, Chunhua Shen
cs.AI

Samenvatting

Recente vooruitgang in videogeneratie heeft voornamelijk gebruikgemaakt van diffusiemodellen voor kortdurende inhoud. Deze benaderingen schieten echter vaak tekort in het modelleren van complexe verhalen en het behouden van karakterconsistentie over langere perioden, wat essentieel is voor langdurige videoproductie zoals films. Wij stellen MovieDreamer voor, een nieuw hiërarchisch raamwerk dat de sterke punten van autoregressieve modellen combineert met diffusiegebaseerde rendering om langdurige videogeneratie met ingewikkelde plotontwikkelingen en hoge visuele kwaliteit te pionieren. Onze aanpak maakt gebruik van autoregressieve modellen voor globale narratieve samenhang, waarbij sequenties van visuele tokens worden voorspeld die vervolgens worden omgezet in hoogwaardige videobeelden via diffusierendering. Deze methode is vergelijkbaar met traditionele filmproductieprocessen, waarbij complexe verhalen worden opgedeeld in beheersbare scènes. Bovendien gebruiken we een multimodale script die scènebeschrijvingen verrijkt met gedetailleerde karakterinformatie en visuele stijl, waardoor continuïteit en karakteridentiteit tussen scènes worden verbeterd. We presenteren uitgebreide experimenten in verschillende filmgenres, die aantonen dat onze aanpak niet alleen superieure visuele en narratieve kwaliteit bereikt, maar ook de duur van gegenereerde inhoud aanzienlijk verlengt vergeleken met huidige mogelijkheden. Homepage: https://aim-uofa.github.io/MovieDreamer/.
English
Recent advancements in video generation have primarily leveraged diffusion models for short-duration content. However, these approaches often fall short in modeling complex narratives and maintaining character consistency over extended periods, which is essential for long-form video production like movies. We propose MovieDreamer, a novel hierarchical framework that integrates the strengths of autoregressive models with diffusion-based rendering to pioneer long-duration video generation with intricate plot progressions and high visual fidelity. Our approach utilizes autoregressive models for global narrative coherence, predicting sequences of visual tokens that are subsequently transformed into high-quality video frames through diffusion rendering. This method is akin to traditional movie production processes, where complex stories are factorized down into manageable scene capturing. Further, we employ a multimodal script that enriches scene descriptions with detailed character information and visual style, enhancing continuity and character identity across scenes. We present extensive experiments across various movie genres, demonstrating that our approach not only achieves superior visual and narrative quality but also effectively extends the duration of generated content significantly beyond current capabilities. Homepage: https://aim-uofa.github.io/MovieDreamer/.
PDF302February 7, 2026