ChatPaper.aiChatPaper

DC-Gen: Aceleração de Difusão Pós-Treinamento com Espaço Latente Profundamente Comprimido

DC-Gen: Post-Training Diffusion Acceleration with Deeply Compressed Latent Space

September 29, 2025
Autores: Wenkun He, Yuchao Gu, Junyu Chen, Dongyun Zou, Yujun Lin, Zhekai Zhang, Haocheng Xi, Muyang Li, Ligeng Zhu, Jincheng Yu, Junsong Chen, Enze Xie, Song Han, Han Cai
cs.AI

Resumo

Os modelos de difusão texto-imagem existentes se destacam na geração de imagens de alta qualidade, mas enfrentam desafios significativos de eficiência quando escalonados para resoluções elevadas, como a geração de imagens em 4K. Embora pesquisas anteriores acelerem modelos de difusão em vários aspectos, raramente lidam com a redundância inerente ao espaço latente. Para preencher essa lacuna, este artigo introduz o DC-Gen, um framework geral que acelera modelos de difusão texto-imagem ao aproveitar um espaço latente profundamente comprimido. Em vez de uma abordagem custosa de treinamento do zero, o DC-Gen utiliza um pipeline eficiente de pós-treinamento para preservar a qualidade do modelo base. Um desafio central nesse paradigma é a lacuna de representação entre o espaço latente do modelo base e um espaço latente profundamente comprimido, o que pode levar à instabilidade durante o ajuste fino direto. Para superar isso, o DC-Gen primeiro preenche a lacuna de representação com um treinamento leve de alinhamento de embeddings. Uma vez que os embeddings latentes estão alinhados, apenas uma pequena quantidade de ajuste fino com LoRA é necessária para desbloquear a qualidade de geração inerente do modelo base. Verificamos a eficácia do DC-Gen no SANA e no FLUX.1-Krea. Os modelos resultantes, DC-Gen-SANA e DC-Gen-FLUX, alcançam qualidade comparável aos seus modelos base, mas com um ganho significativo de velocidade. Especificamente, o DC-Gen-FLUX reduz a latência na geração de imagens 4K em 53x na GPU NVIDIA H100. Quando combinado com o NVFP4 SVDQuant, o DC-Gen-FLUX gera uma imagem 4K em apenas 3,5 segundos em uma única GPU NVIDIA 5090, alcançando uma redução total de latência de 138x em comparação ao modelo base FLUX.1-Krea. Código: https://github.com/dc-ai-projects/DC-Gen.
English
Existing text-to-image diffusion models excel at generating high-quality images, but face significant efficiency challenges when scaled to high resolutions, like 4K image generation. While previous research accelerates diffusion models in various aspects, it seldom handles the inherent redundancy within the latent space. To bridge this gap, this paper introduces DC-Gen, a general framework that accelerates text-to-image diffusion models by leveraging a deeply compressed latent space. Rather than a costly training-from-scratch approach, DC-Gen uses an efficient post-training pipeline to preserve the quality of the base model. A key challenge in this paradigm is the representation gap between the base model's latent space and a deeply compressed latent space, which can lead to instability during direct fine-tuning. To overcome this, DC-Gen first bridges the representation gap with a lightweight embedding alignment training. Once the latent embeddings are aligned, only a small amount of LoRA fine-tuning is needed to unlock the base model's inherent generation quality. We verify DC-Gen's effectiveness on SANA and FLUX.1-Krea. The resulting DC-Gen-SANA and DC-Gen-FLUX models achieve quality comparable to their base models but with a significant speedup. Specifically, DC-Gen-FLUX reduces the latency of 4K image generation by 53x on the NVIDIA H100 GPU. When combined with NVFP4 SVDQuant, DC-Gen-FLUX generates a 4K image in just 3.5 seconds on a single NVIDIA 5090 GPU, achieving a total latency reduction of 138x compared to the base FLUX.1-Krea model. Code: https://github.com/dc-ai-projects/DC-Gen.
PDF62October 1, 2025