DC-VideoGen: Effiziente Videogenerierung mit Deep Compression Video Autoencoder
DC-VideoGen: Efficient Video Generation with Deep Compression Video Autoencoder
September 29, 2025
papers.authors: Junyu Chen, Wenkun He, Yuchao Gu, Yuyang Zhao, Jincheng Yu, Junsong Chen, Dongyun Zou, Yujun Lin, Zhekai Zhang, Muyang Li, Haocheng Xi, Ligeng Zhu, Enze Xie, Song Han, Han Cai
cs.AI
papers.abstract
Wir stellen DC-VideoGen vor, ein Post-Training-Beschleunigungsframework für effiziente Videogenerierung. DC-VideoGen kann auf jedes vortrainierte Video-Diffusionsmodell angewendet werden und verbessert die Effizienz durch Anpassung an einen tief komprimierten latenten Raum mit leichtgewichtiger Feinabstimmung. Das Framework basiert auf zwei zentralen Innovationen: (i) einem Deep Compression Video Autoencoder mit einem neuartigen chunk-kausalen zeitlichen Design, das eine 32x/64x räumliche und 4x zeitliche Kompression erreicht, während die Rekonstruktionsqualität und die Generalisierung auf längere Videos erhalten bleibt; und (ii) AE-Adapt-V, einer robusten Adaptionsstrategie, die eine schnelle und stabile Übertragung vortrainierter Modelle in den neuen latenten Raum ermöglicht. Die Anpassung des vortrainierten Wan-2.1-14B-Modells mit DC-VideoGen erfordert lediglich 10 GPU-Tage auf der NVIDIA H100 GPU. Die beschleunigten Modelle erreichen eine bis zu 14,8x geringere Inferenzlatenz als ihre Basisversionen, ohne dabei die Qualität zu beeinträchtigen, und ermöglichen zudem die Generierung von 2160x3840 Videos auf einer einzelnen GPU. Code: https://github.com/dc-ai-projects/DC-VideoGen.
English
We introduce DC-VideoGen, a post-training acceleration framework for
efficient video generation. DC-VideoGen can be applied to any pre-trained video
diffusion model, improving efficiency by adapting it to a deep compression
latent space with lightweight fine-tuning. The framework builds on two key
innovations: (i) a Deep Compression Video Autoencoder with a novel chunk-causal
temporal design that achieves 32x/64x spatial and 4x temporal compression while
preserving reconstruction quality and generalization to longer videos; and (ii)
AE-Adapt-V, a robust adaptation strategy that enables rapid and stable transfer
of pre-trained models into the new latent space. Adapting the pre-trained
Wan-2.1-14B model with DC-VideoGen requires only 10 GPU days on the NVIDIA H100
GPU. The accelerated models achieve up to 14.8x lower inference latency than
their base counterparts without compromising quality, and further enable
2160x3840 video generation on a single GPU. Code:
https://github.com/dc-ai-projects/DC-VideoGen.