ChatPaper.aiChatPaper

Entrenamiento de Modelos de Consistencia con Acoplamiento de Ruido Variacional

Training Consistency Models with Variational Noise Coupling

February 25, 2025
Autores: Gianluigi Silvestri, Luca Ambrogioni, Chieh-Hsin Lai, Yuhta Takida, Yuki Mitsufuji
cs.AI

Resumen

El Entrenamiento de Consistencia (CT, por sus siglas en inglés) ha surgido recientemente como una alternativa prometedora a los modelos de difusión, logrando un rendimiento competitivo en tareas de generación de imágenes. Sin embargo, el entrenamiento de consistencia sin destilación a menudo sufre de alta varianza e inestabilidad, y analizar y mejorar su dinámica de entrenamiento es un área activa de investigación. En este trabajo, proponemos un enfoque de entrenamiento CT novedoso basado en el marco de Coincidencia de Flujo. Nuestra principal contribución es un esquema de acoplamiento de ruido entrenado inspirado en la arquitectura de Autoencoders Variacionales (VAE). Al entrenar un modelo de emisión de ruido dependiente de los datos implementado como una arquitectura de codificador, nuestro método puede aprender indirectamente la geometría de la asignación de ruido a datos, que en cambio está fija por la elección del proceso directo en el CT clásico. Los resultados empíricos en diversos conjuntos de datos de imágenes muestran mejoras generativas significativas, con nuestro modelo superando a los baselines y logrando el estado del arte (SoTA) en CT sin destilación FID en CIFAR-10, y alcanzando un FID comparable al SoTA en ImageNet a una resolución de 64 veces 64 en generación de 2 pasos. Nuestro código está disponible en https://github.com/sony/vct.
English
Consistency Training (CT) has recently emerged as a promising alternative to diffusion models, achieving competitive performance in image generation tasks. However, non-distillation consistency training often suffers from high variance and instability, and analyzing and improving its training dynamics is an active area of research. In this work, we propose a novel CT training approach based on the Flow Matching framework. Our main contribution is a trained noise-coupling scheme inspired by the architecture of Variational Autoencoders (VAE). By training a data-dependent noise emission model implemented as an encoder architecture, our method can indirectly learn the geometry of the noise-to-data mapping, which is instead fixed by the choice of the forward process in classical CT. Empirical results across diverse image datasets show significant generative improvements, with our model outperforming baselines and achieving the state-of-the-art (SoTA) non-distillation CT FID on CIFAR-10, and attaining FID on par with SoTA on ImageNet at 64 times 64 resolution in 2-step generation. Our code is available at https://github.com/sony/vct .

Summary

AI-Generated Summary

PDF72February 28, 2025