ChatPaper.aiChatPaper

Training von Konsistenzmodellen mit variationaler Rauschkopplung

Training Consistency Models with Variational Noise Coupling

February 25, 2025
Autoren: Gianluigi Silvestri, Luca Ambrogioni, Chieh-Hsin Lai, Yuhta Takida, Yuki Mitsufuji
cs.AI

Zusammenfassung

Konsistenztraining (CT) hat sich kürzlich als vielversprechende Alternative zu Diffusionsmodellen etabliert, die eine wettbewerbsfähige Leistung bei der Bildgenerierung erzielen. Allerdings leidet das Konsistenztraining ohne Destillation oft unter hoher Varianz und Instabilität, und die Analyse und Verbesserung seiner Trainingsdynamik ist ein aktives Forschungsgebiet. In dieser Arbeit schlagen wir einen neuartigen CT-Trainingsansatz basierend auf dem Flow Matching-Framework vor. Unser Hauptbeitrag ist ein trainiertes Rauschkopplungsschema, das von der Architektur Variationaler Autoencoder (VAE) inspiriert ist. Durch das Training eines datenabhängigen Rauschemissionsmodells, das als Encoder-Architektur implementiert ist, kann unsere Methode indirekt die Geometrie der Rausch-zu-Daten-Abbildung erlernen, die durch die Wahl des Vorwärtsprozesses im klassischen CT festgelegt ist. Empirische Ergebnisse über verschiedene Bilddatensätze zeigen signifikante generative Verbesserungen, wobei unser Modell Baselines übertrifft und den State-of-the-Art (SoTA) im nicht-dedizierten CT FID auf CIFAR-10 erreicht und einen FID auf Augenhöhe mit SoTA auf ImageNet bei einer Auflösung von 64 mal 64 in der 2-Schritt-Generierung erzielt. Unser Code ist unter https://github.com/sony/vct verfügbar.
English
Consistency Training (CT) has recently emerged as a promising alternative to diffusion models, achieving competitive performance in image generation tasks. However, non-distillation consistency training often suffers from high variance and instability, and analyzing and improving its training dynamics is an active area of research. In this work, we propose a novel CT training approach based on the Flow Matching framework. Our main contribution is a trained noise-coupling scheme inspired by the architecture of Variational Autoencoders (VAE). By training a data-dependent noise emission model implemented as an encoder architecture, our method can indirectly learn the geometry of the noise-to-data mapping, which is instead fixed by the choice of the forward process in classical CT. Empirical results across diverse image datasets show significant generative improvements, with our model outperforming baselines and achieving the state-of-the-art (SoTA) non-distillation CT FID on CIFAR-10, and attaining FID on par with SoTA on ImageNet at 64 times 64 resolution in 2-step generation. Our code is available at https://github.com/sony/vct .

Summary

AI-Generated Summary

PDF72February 28, 2025