DC-VideoGen: Generación Eficiente de Videos con Autoencoder de Compresión Profunda de Video
DC-VideoGen: Efficient Video Generation with Deep Compression Video Autoencoder
September 29, 2025
Autores: Junyu Chen, Wenkun He, Yuchao Gu, Yuyang Zhao, Jincheng Yu, Junsong Chen, Dongyun Zou, Yujun Lin, Zhekai Zhang, Muyang Li, Haocheng Xi, Ligeng Zhu, Enze Xie, Song Han, Han Cai
cs.AI
Resumen
Presentamos DC-VideoGen, un marco de aceleración posentrenamiento para la generación eficiente de videos. DC-VideoGen puede aplicarse a cualquier modelo de difusión de video preentrenado, mejorando la eficiencia al adaptarlo a un espacio latente de compresión profunda con un ajuste fino ligero. El marco se basa en dos innovaciones clave: (i) un Autoencoder de Video de Compresión Profunda con un diseño temporal novedoso de fragmentos causales que logra una compresión espacial de 32x/64x y temporal de 4x, manteniendo la calidad de reconstrucción y la generalización a videos más largos; y (ii) AE-Adapt-V, una estrategia de adaptación robusta que permite una transferencia rápida y estable de modelos preentrenados al nuevo espacio latente. Adaptar el modelo preentrenado Wan-2.1-14B con DC-VideoGen requiere solo 10 días de GPU en la GPU NVIDIA H100. Los modelos acelerados logran una latencia de inferencia hasta 14.8 veces menor que sus contrapartes base sin comprometer la calidad, y además permiten la generación de videos de 2160x3840 en una sola GPU. Código: https://github.com/dc-ai-projects/DC-VideoGen.
English
We introduce DC-VideoGen, a post-training acceleration framework for
efficient video generation. DC-VideoGen can be applied to any pre-trained video
diffusion model, improving efficiency by adapting it to a deep compression
latent space with lightweight fine-tuning. The framework builds on two key
innovations: (i) a Deep Compression Video Autoencoder with a novel chunk-causal
temporal design that achieves 32x/64x spatial and 4x temporal compression while
preserving reconstruction quality and generalization to longer videos; and (ii)
AE-Adapt-V, a robust adaptation strategy that enables rapid and stable transfer
of pre-trained models into the new latent space. Adapting the pre-trained
Wan-2.1-14B model with DC-VideoGen requires only 10 GPU days on the NVIDIA H100
GPU. The accelerated models achieve up to 14.8x lower inference latency than
their base counterparts without compromising quality, and further enable
2160x3840 video generation on a single GPU. Code:
https://github.com/dc-ai-projects/DC-VideoGen.