Het trainen van consistentiemodellen met variabele ruiskoppeling.
Training Consistency Models with Variational Noise Coupling
February 25, 2025
Auteurs: Gianluigi Silvestri, Luca Ambrogioni, Chieh-Hsin Lai, Yuhta Takida, Yuki Mitsufuji
cs.AI
Samenvatting
Consistentietraining (CT) is recentelijk naar voren gekomen als een veelbelovend alternatief voor diffusiemodellen, waarbij het competitieve prestaties behaalt bij beeldgeneratietaken. Echter, niet-verdampende consistentietraining heeft vaak te kampen met hoge variantie en instabiliteit, en het analyseren en verbeteren van de trainingsdynamiek is een actief onderzoeksgebied. In dit werk stellen we een nieuw CT-trainingsbenadering voor op basis van het Flow Matching-framework. Onze belangrijkste bijdrage is een getraind ruis-koppelingsmechanisme geïnspireerd op de architectuur van Variational Autoencoders (VAE). Door een op data gebaseerd ruisemissiemodel te trainen dat geïmplementeerd is als een encoderarchitectuur, kan onze methode indirect de geometrie van de ruis-naar-data mapping leren, wat in klassieke CT in plaats daarvan vastligt door de keuze van het voorwaartse proces. Empirische resultaten over diverse beelddatasets tonen aanzienlijke generatieve verbeteringen, waarbij ons model beter presteert dan baselines en de state-of-the-art (SoTA) non-distillation CT FID behaalt op CIFAR-10, en een FID behaalt die gelijk is aan SoTA op ImageNet bij een resolutie van 64 bij 64 in 2-staps generatie. Onze code is beschikbaar op https://github.com/sony/vct.
English
Consistency Training (CT) has recently emerged as a promising alternative to
diffusion models, achieving competitive performance in image generation tasks.
However, non-distillation consistency training often suffers from high variance
and instability, and analyzing and improving its training dynamics is an active
area of research. In this work, we propose a novel CT training approach based
on the Flow Matching framework. Our main contribution is a trained
noise-coupling scheme inspired by the architecture of Variational Autoencoders
(VAE). By training a data-dependent noise emission model implemented as an
encoder architecture, our method can indirectly learn the geometry of the
noise-to-data mapping, which is instead fixed by the choice of the forward
process in classical CT. Empirical results across diverse image datasets show
significant generative improvements, with our model outperforming baselines and
achieving the state-of-the-art (SoTA) non-distillation CT FID on CIFAR-10, and
attaining FID on par with SoTA on ImageNet at 64 times 64 resolution in
2-step generation. Our code is available at https://github.com/sony/vct .Summary
AI-Generated Summary