Decoupling Gerarchico Spazio-temporale per la Generazione di Video da Testo
Hierarchical Spatio-temporal Decoupling for Text-to-Video Generation
December 7, 2023
Autori: Zhiwu Qing, Shiwei Zhang, Jiayu Wang, Xiang Wang, Yujie Wei, Yingya Zhang, Changxin Gao, Nong Sang
cs.AI
Abstract
Nonostante i modelli di diffusione abbiano dimostrato capacità potenti nel generare immagini fotorealistiche, la generazione di video realistici e diversificati è ancora agli inizi. Una delle ragioni principali è che i metodi attuali intrecciano insieme il contenuto spaziale e la dinamica temporale, portando a una complessità notevolmente aumentata nella generazione di video da testo (T2V). In questo lavoro, proponiamo HiGen, un metodo basato su modelli di diffusione che migliora le prestazioni disaccoppiando i fattori spaziali e temporali dei video da due prospettive, ovvero a livello di struttura e a livello di contenuto. A livello di struttura, scomponiamo il compito T2V in due passaggi, inclusi il ragionamento spaziale e il ragionamento temporale, utilizzando un denoiser unificato. Nello specifico, generiamo prior spazialmente coerenti utilizzando il testo durante il ragionamento spaziale e poi generiamo movimenti temporalmente coerenti da questi prior durante il ragionamento temporale. A livello di contenuto, estraiamo due sottili indizi dal contenuto del video di input che possono esprimere rispettivamente i cambiamenti di movimento e di aspetto. Questi due indizi guidano poi l'addestramento del modello per la generazione di video, consentendo variazioni di contenuto flessibili e migliorando la stabilità temporale. Attraverso il paradigma disaccoppiato, HiGen può ridurre efficacemente la complessità di questo compito e generare video realistici con accuratezza semantica e stabilità del movimento. Esperimenti estensivi dimostrano la superiorità delle prestazioni di HiGen rispetto ai metodi T2V all'avanguardia.
English
Despite diffusion models having shown powerful abilities to generate
photorealistic images, generating videos that are realistic and diverse still
remains in its infancy. One of the key reasons is that current methods
intertwine spatial content and temporal dynamics together, leading to a notably
increased complexity of text-to-video generation (T2V). In this work, we
propose HiGen, a diffusion model-based method that improves performance by
decoupling the spatial and temporal factors of videos from two perspectives,
i.e., structure level and content level. At the structure level, we decompose
the T2V task into two steps, including spatial reasoning and temporal
reasoning, using a unified denoiser. Specifically, we generate spatially
coherent priors using text during spatial reasoning and then generate
temporally coherent motions from these priors during temporal reasoning. At the
content level, we extract two subtle cues from the content of the input video
that can express motion and appearance changes, respectively. These two cues
then guide the model's training for generating videos, enabling flexible
content variations and enhancing temporal stability. Through the decoupled
paradigm, HiGen can effectively reduce the complexity of this task and generate
realistic videos with semantics accuracy and motion stability. Extensive
experiments demonstrate the superior performance of HiGen over the
state-of-the-art T2V methods.