ChatPaper.aiChatPaper

Hiërarchische Ruimtelijk-temporele Ontkoppeling voor Tekst-naar-Video Generatie

Hierarchical Spatio-temporal Decoupling for Text-to-Video Generation

December 7, 2023
Auteurs: Zhiwu Qing, Shiwei Zhang, Jiayu Wang, Xiang Wang, Yujie Wei, Yingya Zhang, Changxin Gao, Nong Sang
cs.AI

Samenvatting

Ondanks dat diffusiemodellen krachtige mogelijkheden hebben getoond om fotorealistische afbeeldingen te genereren, staat het genereren van realistische en diverse video's nog in de kinderschoenen. Een van de belangrijkste redenen is dat huidige methoden ruimtelijke inhoud en temporele dynamiek met elkaar verweven, wat leidt tot een aanzienlijk verhoogde complexiteit van tekst-naar-video-generatie (T2V). In dit werk stellen we HiGen voor, een op diffusiemodellen gebaseerde methode die de prestaties verbetert door de ruimtelijke en temporele factoren van video's vanuit twee perspectieven te ontkoppelen, namelijk op structuurniveau en op inhoudsniveau. Op structuurniveau splitsen we de T2V-taak op in twee stappen, waaronder ruimtelijke redenering en temporele redenering, met behulp van een uniforme denoiser. Specifiek genereren we ruimtelijk coherente priors met behulp van tekst tijdens de ruimtelijke redenering en genereren we vervolgens temporeel coherente bewegingen vanuit deze priors tijdens de temporele redenering. Op inhoudsniveau extraheren we twee subtiele aanwijzingen uit de inhoud van de invoervideo die respectievelijk beweging en uiterlijke veranderingen kunnen uitdrukken. Deze twee aanwijzingen begeleiden vervolgens de training van het model voor het genereren van video's, waardoor flexibele inhoudsvariaties mogelijk worden en de temporele stabiliteit wordt verbeterd. Door het ontkoppelde paradigma kan HiGen de complexiteit van deze taak effectief verminderen en realistische video's genereren met semantische nauwkeurigheid en bewegingsstabiliteit. Uitgebreide experimenten tonen de superieure prestaties van HiGen aan ten opzichte van de state-of-the-art T2V-methoden.
English
Despite diffusion models having shown powerful abilities to generate photorealistic images, generating videos that are realistic and diverse still remains in its infancy. One of the key reasons is that current methods intertwine spatial content and temporal dynamics together, leading to a notably increased complexity of text-to-video generation (T2V). In this work, we propose HiGen, a diffusion model-based method that improves performance by decoupling the spatial and temporal factors of videos from two perspectives, i.e., structure level and content level. At the structure level, we decompose the T2V task into two steps, including spatial reasoning and temporal reasoning, using a unified denoiser. Specifically, we generate spatially coherent priors using text during spatial reasoning and then generate temporally coherent motions from these priors during temporal reasoning. At the content level, we extract two subtle cues from the content of the input video that can express motion and appearance changes, respectively. These two cues then guide the model's training for generating videos, enabling flexible content variations and enhancing temporal stability. Through the decoupled paradigm, HiGen can effectively reduce the complexity of this task and generate realistic videos with semantics accuracy and motion stability. Extensive experiments demonstrate the superior performance of HiGen over the state-of-the-art T2V methods.
PDF71February 7, 2026