DC-VideoGen: Эффективная генерация видео с использованием глубокого сжатия и видеоавтокодировщика
DC-VideoGen: Efficient Video Generation with Deep Compression Video Autoencoder
September 29, 2025
Авторы: Junyu Chen, Wenkun He, Yuchao Gu, Yuyang Zhao, Jincheng Yu, Junsong Chen, Dongyun Zou, Yujun Lin, Zhekai Zhang, Muyang Li, Haocheng Xi, Ligeng Zhu, Enze Xie, Song Han, Han Cai
cs.AI
Аннотация
Мы представляем DC-VideoGen — фреймворк для ускорения генерации видео после обучения, повышающий эффективность. DC-VideoGen может быть применен к любой предварительно обученной модели диффузии видео, улучшая ее производительность за счет адаптации к глубоко сжатому латентному пространству с помощью легкой тонкой настройки. Фреймворк основан на двух ключевых инновациях: (i) Deep Compression Video Autoencoder с новой чанк-каузальной временной архитектурой, которая обеспечивает 32x/64x сжатие по пространству и 4x по времени, сохраняя качество реконструкции и обобщение на более длинные видео; и (ii) AE-Adapt-V — надежная стратегия адаптации, которая позволяет быстро и стабильно переносить предварительно обученные модели в новое латентное пространство. Адаптация предварительно обученной модели Wan-2.1-14B с использованием DC-VideoGen требует всего 10 GPU-дней на GPU NVIDIA H100. Ускоренные модели достигают до 14.8x меньшей задержки при выводе по сравнению с базовыми версиями без потери качества и дополнительно позволяют генерировать видео с разрешением 2160x3840 на одном GPU. Код: https://github.com/dc-ai-projects/DC-VideoGen.
English
We introduce DC-VideoGen, a post-training acceleration framework for
efficient video generation. DC-VideoGen can be applied to any pre-trained video
diffusion model, improving efficiency by adapting it to a deep compression
latent space with lightweight fine-tuning. The framework builds on two key
innovations: (i) a Deep Compression Video Autoencoder with a novel chunk-causal
temporal design that achieves 32x/64x spatial and 4x temporal compression while
preserving reconstruction quality and generalization to longer videos; and (ii)
AE-Adapt-V, a robust adaptation strategy that enables rapid and stable transfer
of pre-trained models into the new latent space. Adapting the pre-trained
Wan-2.1-14B model with DC-VideoGen requires only 10 GPU days on the NVIDIA H100
GPU. The accelerated models achieve up to 14.8x lower inference latency than
their base counterparts without compromising quality, and further enable
2160x3840 video generation on a single GPU. Code:
https://github.com/dc-ai-projects/DC-VideoGen.