ChatPaper.aiChatPaper

Entraînement de modèles de cohérence avec couplage de bruit variationnel

Training Consistency Models with Variational Noise Coupling

February 25, 2025
Auteurs: Gianluigi Silvestri, Luca Ambrogioni, Chieh-Hsin Lai, Yuhta Takida, Yuki Mitsufuji
cs.AI

Résumé

L'entraînement à la cohérence (CT) a récemment émergé comme une alternative prometteuse aux modèles de diffusion, atteignant des performances compétitives dans les tâches de génération d'images. Cependant, l'entraînement à la cohérence sans distillation souffre souvent d'une variance élevée et d'une instabilité, et l'analyse et l'amélioration de sa dynamique d'entraînement constituent un domaine de recherche actif. Dans ce travail, nous proposons une nouvelle approche d'entraînement CT basée sur le cadre de correspondance de flux. Notre principale contribution est un schéma de couplage de bruit entraîné inspiré de l'architecture des autoencodeurs variationnels (VAE). En formant un modèle d'émission de bruit dépendant des données implémenté en tant qu'architecture d'encodeur, notre méthode peut apprendre indirectement la géométrie de la correspondance bruit-données, qui est fixée par le choix du processus direct dans le CT classique. Les résultats empiriques sur divers ensembles de données d'images montrent des améliorations génératives significatives, notre modèle surpassant les références et atteignant l'état de l'art (SoTA) du CT sans distillation FID sur CIFAR-10, et obtenant un FID comparable au SoTA sur ImageNet en résolution 64 fois 64 dans une génération en 2 étapes. Notre code est disponible sur https://github.com/sony/vct.
English
Consistency Training (CT) has recently emerged as a promising alternative to diffusion models, achieving competitive performance in image generation tasks. However, non-distillation consistency training often suffers from high variance and instability, and analyzing and improving its training dynamics is an active area of research. In this work, we propose a novel CT training approach based on the Flow Matching framework. Our main contribution is a trained noise-coupling scheme inspired by the architecture of Variational Autoencoders (VAE). By training a data-dependent noise emission model implemented as an encoder architecture, our method can indirectly learn the geometry of the noise-to-data mapping, which is instead fixed by the choice of the forward process in classical CT. Empirical results across diverse image datasets show significant generative improvements, with our model outperforming baselines and achieving the state-of-the-art (SoTA) non-distillation CT FID on CIFAR-10, and attaining FID on par with SoTA on ImageNet at 64 times 64 resolution in 2-step generation. Our code is available at https://github.com/sony/vct .

Summary

AI-Generated Summary

PDF72February 28, 2025