ChatPaper.aiChatPaper

Addestramento di Modelli di Consistenza con Accoppiamento di Rumore Variazionale

Training Consistency Models with Variational Noise Coupling

February 25, 2025
Autori: Gianluigi Silvestri, Luca Ambrogioni, Chieh-Hsin Lai, Yuhta Takida, Yuki Mitsufuji
cs.AI

Abstract

Il Consistency Training (CT) è emerso recentemente come una promettente alternativa ai modelli di diffusione, raggiungendo prestazioni competitive nei task di generazione di immagini. Tuttavia, il CT non basato su distillazione spesso soffre di elevata varianza e instabilità, e l'analisi e il miglioramento delle sue dinamiche di addestramento rappresentano un'area di ricerca attiva. In questo lavoro, proponiamo un nuovo approccio di addestramento CT basato sul framework di Flow Matching. Il nostro contributo principale è uno schema di accoppiamento del rumore addestrato, ispirato all'architettura dei Variational Autoencoder (VAE). Addestrando un modello di emissione del rumore dipendente dai dati implementato come un'architettura di codificatore, il nostro metodo può apprendere indirettamente la geometria della mappatura dal rumore ai dati, che invece è fissata dalla scelta del processo diretto nel CT classico. I risultati empirici su diversi dataset di immagini mostrano significativi miglioramenti generativi, con il nostro modello che supera i baseline e raggiunge lo stato dell'arte (SoTA) per il CT non basato su distillazione in termini di FID su CIFAR-10, e ottiene un FID paragonabile allo SoTA su ImageNet alla risoluzione 64x64 in una generazione a 2 passi. Il nostro codice è disponibile all'indirizzo https://github.com/sony/vct.
English
Consistency Training (CT) has recently emerged as a promising alternative to diffusion models, achieving competitive performance in image generation tasks. However, non-distillation consistency training often suffers from high variance and instability, and analyzing and improving its training dynamics is an active area of research. In this work, we propose a novel CT training approach based on the Flow Matching framework. Our main contribution is a trained noise-coupling scheme inspired by the architecture of Variational Autoencoders (VAE). By training a data-dependent noise emission model implemented as an encoder architecture, our method can indirectly learn the geometry of the noise-to-data mapping, which is instead fixed by the choice of the forward process in classical CT. Empirical results across diverse image datasets show significant generative improvements, with our model outperforming baselines and achieving the state-of-the-art (SoTA) non-distillation CT FID on CIFAR-10, and attaining FID on par with SoTA on ImageNet at 64 times 64 resolution in 2-step generation. Our code is available at https://github.com/sony/vct .

Summary

AI-Generated Summary

PDF72February 28, 2025