MovieDreamer: Hiërarchische Generatie voor Samenhangende Lange Visuele Reeksen
MovieDreamer: Hierarchical Generation for Coherent Long Visual Sequence
July 23, 2024
Auteurs: Canyu Zhao, Mingyu Liu, Wen Wang, Jianlong Yuan, Hao Chen, Bo Zhang, Chunhua Shen
cs.AI
Samenvatting
Recente vooruitgang in videogeneratie heeft voornamelijk gebruikgemaakt van diffusiemodellen voor kortdurende inhoud. Deze benaderingen schieten echter vaak tekort in het modelleren van complexe verhalen en het behouden van karakterconsistentie over langere perioden, wat essentieel is voor langdurige videoproductie zoals films. Wij stellen MovieDreamer voor, een nieuw hiërarchisch raamwerk dat de sterke punten van autoregressieve modellen combineert met diffusiegebaseerde rendering om langdurige videogeneratie met ingewikkelde plotontwikkelingen en hoge visuele kwaliteit te pionieren. Onze aanpak maakt gebruik van autoregressieve modellen voor globale narratieve samenhang, waarbij sequenties van visuele tokens worden voorspeld die vervolgens worden omgezet in hoogwaardige videobeelden via diffusierendering. Deze methode is vergelijkbaar met traditionele filmproductieprocessen, waarbij complexe verhalen worden opgedeeld in beheersbare scènes. Bovendien gebruiken we een multimodale script die scènebeschrijvingen verrijkt met gedetailleerde karakterinformatie en visuele stijl, waardoor continuïteit en karakteridentiteit tussen scènes worden verbeterd. We presenteren uitgebreide experimenten in verschillende filmgenres, die aantonen dat onze aanpak niet alleen superieure visuele en narratieve kwaliteit bereikt, maar ook de duur van gegenereerde inhoud aanzienlijk verlengt vergeleken met huidige mogelijkheden. Homepage: https://aim-uofa.github.io/MovieDreamer/.
English
Recent advancements in video generation have primarily leveraged diffusion
models for short-duration content. However, these approaches often fall short
in modeling complex narratives and maintaining character consistency over
extended periods, which is essential for long-form video production like
movies. We propose MovieDreamer, a novel hierarchical framework that integrates
the strengths of autoregressive models with diffusion-based rendering to
pioneer long-duration video generation with intricate plot progressions and
high visual fidelity. Our approach utilizes autoregressive models for global
narrative coherence, predicting sequences of visual tokens that are
subsequently transformed into high-quality video frames through diffusion
rendering. This method is akin to traditional movie production processes, where
complex stories are factorized down into manageable scene capturing. Further,
we employ a multimodal script that enriches scene descriptions with detailed
character information and visual style, enhancing continuity and character
identity across scenes. We present extensive experiments across various movie
genres, demonstrating that our approach not only achieves superior visual and
narrative quality but also effectively extends the duration of generated
content significantly beyond current capabilities. Homepage:
https://aim-uofa.github.io/MovieDreamer/.