ChatPaper.aiChatPaper

DC-VideoGen: Efficiënte Videogeneratie met Deep Compression Video Autoencoder

DC-VideoGen: Efficient Video Generation with Deep Compression Video Autoencoder

September 29, 2025
Auteurs: Junyu Chen, Wenkun He, Yuchao Gu, Yuyang Zhao, Jincheng Yu, Junsong Chen, Dongyun Zou, Yujun Lin, Zhekai Zhang, Muyang Li, Haocheng Xi, Ligeng Zhu, Enze Xie, Song Han, Han Cai
cs.AI

Samenvatting

We introduceren DC-VideoGen, een post-trainingsversnellingsframework voor efficiënte videogeneratie. DC-VideoGen kan worden toegepast op elk vooraf getraind videodiffusiemodel, waarbij de efficiëntie wordt verbeterd door het aan te passen aan een diep gecomprimeerde latente ruimte met lichtgewicht fine-tuning. Het framework is gebaseerd op twee belangrijke innovaties: (i) een Deep Compression Video Autoencoder met een nieuw chunk-causaal temporeel ontwerp dat een 32x/64x ruimtelijke en 4x temporele compressie bereikt, terwijl de reconstructiekwaliteit en generalisatie naar langere video's behouden blijven; en (ii) AE-Adapt-V, een robuuste aanpassingsstrategie die een snelle en stabiele overdracht van vooraf getrainde modellen naar de nieuwe latente ruimte mogelijk maakt. Het aanpassen van het vooraf getrainde Wan-2.1-14B-model met DC-VideoGen vereist slechts 10 GPU-dagen op de NVIDIA H100 GPU. De versnelde modellen bereiken tot 14,8x lagere inferentielatentie dan hun basisvarianten zonder kwaliteitsverlies, en maken verder videogeneratie van 2160x3840 mogelijk op een enkele GPU. Code: https://github.com/dc-ai-projects/DC-VideoGen.
English
We introduce DC-VideoGen, a post-training acceleration framework for efficient video generation. DC-VideoGen can be applied to any pre-trained video diffusion model, improving efficiency by adapting it to a deep compression latent space with lightweight fine-tuning. The framework builds on two key innovations: (i) a Deep Compression Video Autoencoder with a novel chunk-causal temporal design that achieves 32x/64x spatial and 4x temporal compression while preserving reconstruction quality and generalization to longer videos; and (ii) AE-Adapt-V, a robust adaptation strategy that enables rapid and stable transfer of pre-trained models into the new latent space. Adapting the pre-trained Wan-2.1-14B model with DC-VideoGen requires only 10 GPU days on the NVIDIA H100 GPU. The accelerated models achieve up to 14.8x lower inference latency than their base counterparts without compromising quality, and further enable 2160x3840 video generation on a single GPU. Code: https://github.com/dc-ai-projects/DC-VideoGen.
PDF362October 1, 2025