ChatPaper.aiChatPaper

Découplage hiérarchique spatio-temporel pour la génération de texte-à-vidéo

Hierarchical Spatio-temporal Decoupling for Text-to-Video Generation

December 7, 2023
Auteurs: Zhiwu Qing, Shiwei Zhang, Jiayu Wang, Xiang Wang, Yujie Wei, Yingya Zhang, Changxin Gao, Nong Sang
cs.AI

Résumé

Bien que les modèles de diffusion aient démontré des capacités puissantes à générer des images photoréalistes, la génération de vidéos réalistes et diversifiées en est encore à ses balbutiements. L'une des principales raisons est que les méthodes actuelles entrelacent le contenu spatial et la dynamique temporelle, ce qui augmente considérablement la complexité de la génération de vidéos à partir de texte (T2V). Dans ce travail, nous proposons HiGen, une méthode basée sur un modèle de diffusion qui améliore les performances en découplant les facteurs spatiaux et temporels des vidéos à deux niveaux, à savoir le niveau structurel et le niveau de contenu. Au niveau structurel, nous décomposons la tâche T2V en deux étapes, incluant le raisonnement spatial et le raisonnement temporel, en utilisant un débruiteur unifié. Plus précisément, nous générons des préalables spatialement cohérents à l'aide du texte pendant le raisonnement spatial, puis nous générons des mouvements temporellement cohérents à partir de ces préalables pendant le raisonnement temporel. Au niveau du contenu, nous extrayons deux indices subtils du contenu de la vidéo d'entrée qui peuvent exprimer respectivement les changements de mouvement et d'apparence. Ces deux indices guident ensuite l'entraînement du modèle pour générer des vidéos, permettant des variations de contenu flexibles et améliorant la stabilité temporelle. Grâce au paradigme découplé, HiGen peut efficacement réduire la complexité de cette tâche et générer des vidéos réalistes avec une précision sémantique et une stabilité de mouvement. Des expériences approfondies démontrent la performance supérieure de HiGen par rapport aux méthodes T2V de pointe.
English
Despite diffusion models having shown powerful abilities to generate photorealistic images, generating videos that are realistic and diverse still remains in its infancy. One of the key reasons is that current methods intertwine spatial content and temporal dynamics together, leading to a notably increased complexity of text-to-video generation (T2V). In this work, we propose HiGen, a diffusion model-based method that improves performance by decoupling the spatial and temporal factors of videos from two perspectives, i.e., structure level and content level. At the structure level, we decompose the T2V task into two steps, including spatial reasoning and temporal reasoning, using a unified denoiser. Specifically, we generate spatially coherent priors using text during spatial reasoning and then generate temporally coherent motions from these priors during temporal reasoning. At the content level, we extract two subtle cues from the content of the input video that can express motion and appearance changes, respectively. These two cues then guide the model's training for generating videos, enabling flexible content variations and enhancing temporal stability. Through the decoupled paradigm, HiGen can effectively reduce the complexity of this task and generate realistic videos with semantics accuracy and motion stability. Extensive experiments demonstrate the superior performance of HiGen over the state-of-the-art T2V methods.
PDF71December 15, 2024