ChatPaper.aiChatPaper

Unified Continue Generatieve Modellen

Unified Continuous Generative Models

May 12, 2025
Auteurs: Peng Sun, Yi Jiang, Tao Lin
cs.AI

Samenvatting

Recente vooruitgang in continue generatieve modellen, waaronder multi-stapbenaderingen zoals diffusie en flow-matching (meestal 8-1000 steppen vereisend) en few-stepmethoden zoals consistentiemodellen (meestal 1-8 steppen), heeft indrukwekkende generatieve prestaties laten zien. Bestaand werk behandelt deze benaderingen echter vaak als afzonderlijke paradigma's, wat resulteert in aparte trainings- en samplingmethodologieën. Wij introduceren een geïntegreerd raamwerk voor het trainen, samplen en analyseren van deze modellen. Onze implementatie, de Unified Continuous Generative Models Trainer and Sampler (UCGM-{T,S}), behaalt state-of-the-art (SOTA) prestaties. Zo bereikt UCGM-T op ImageNet 256x256 met een 675M diffusietransformer een multi-stapmodel met een FID van 1,30 in 20 steppen en een few-stepmodel met een FID van 1,42 in slechts 2 steppen. Daarnaast verbetert het toepassen van UCGM-S op een voorgetraind model (voorheen 1,26 FID bij 250 steppen) de prestaties tot 1,06 FID in slechts 40 steppen. De code is beschikbaar op: https://github.com/LINs-lab/UCGM.
English
Recent advances in continuous generative models, including multi-step approaches like diffusion and flow-matching (typically requiring 8-1000 sampling steps) and few-step methods such as consistency models (typically 1-8 steps), have demonstrated impressive generative performance. However, existing work often treats these approaches as distinct paradigms, resulting in separate training and sampling methodologies. We introduce a unified framework for training, sampling, and analyzing these models. Our implementation, the Unified Continuous Generative Models Trainer and Sampler (UCGM-{T,S}), achieves state-of-the-art (SOTA) performance. For example, on ImageNet 256x256 using a 675M diffusion transformer, UCGM-T trains a multi-step model achieving 1.30 FID in 20 steps and a few-step model reaching 1.42 FID in just 2 steps. Additionally, applying UCGM-S to a pre-trained model (previously 1.26 FID at 250 steps) improves performance to 1.06 FID in only 40 steps. Code is available at: https://github.com/LINs-lab/UCGM.

Summary

AI-Generated Summary

PDF413May 13, 2025