ChatPaper.aiChatPaper

Иерархическое разделение пространственно-временных аспектов для генерации видео из текста

Hierarchical Spatio-temporal Decoupling for Text-to-Video Generation

December 7, 2023
Авторы: Zhiwu Qing, Shiwei Zhang, Jiayu Wang, Xiang Wang, Yujie Wei, Yingya Zhang, Changxin Gao, Nong Sang
cs.AI

Аннотация

Несмотря на то, что диффузионные модели продемонстрировали мощные способности в генерации фотореалистичных изображений, создание реалистичных и разнообразных видео всё ещё находится в зачаточном состоянии. Одной из ключевых причин является то, что современные методы объединяют пространственное содержание и временную динамику, что значительно увеличивает сложность задачи генерации видео из текста (T2V). В данной работе мы предлагаем HiGen, метод на основе диффузионных моделей, который повышает производительность за счёт разделения пространственных и временных факторов видео на двух уровнях: структурном и содержательном. На структурном уровне мы разбиваем задачу T2V на два этапа, включая пространственное и временное рассуждение, используя единый денойзер. В частности, мы генерируем пространственно согласованные приоры с использованием текста на этапе пространственного рассуждения, а затем создаём временно согласованные движения из этих приоров на этапе временного рассуждения. На содержательном уровне мы извлекаем из содержимого входного видео два тонких сигнала, которые могут выражать изменения движения и внешнего вида соответственно. Эти сигналы затем направляют обучение модели для генерации видео, обеспечивая гибкие вариации содержания и повышая временную стабильность. Благодаря разделённой парадигме HiGen эффективно снижает сложность задачи и генерирует реалистичные видео с точной семантикой и стабильностью движения. Многочисленные эксперименты демонстрируют превосходство HiGen по сравнению с современными методами T2V.
English
Despite diffusion models having shown powerful abilities to generate photorealistic images, generating videos that are realistic and diverse still remains in its infancy. One of the key reasons is that current methods intertwine spatial content and temporal dynamics together, leading to a notably increased complexity of text-to-video generation (T2V). In this work, we propose HiGen, a diffusion model-based method that improves performance by decoupling the spatial and temporal factors of videos from two perspectives, i.e., structure level and content level. At the structure level, we decompose the T2V task into two steps, including spatial reasoning and temporal reasoning, using a unified denoiser. Specifically, we generate spatially coherent priors using text during spatial reasoning and then generate temporally coherent motions from these priors during temporal reasoning. At the content level, we extract two subtle cues from the content of the input video that can express motion and appearance changes, respectively. These two cues then guide the model's training for generating videos, enabling flexible content variations and enhancing temporal stability. Through the decoupled paradigm, HiGen can effectively reduce the complexity of this task and generate realistic videos with semantics accuracy and motion stability. Extensive experiments demonstrate the superior performance of HiGen over the state-of-the-art T2V methods.
PDF71December 15, 2024