DREAM: Modelos Adaptativos de Estimación y Rectificación por Difusión
DREAM: Diffusion Rectification and Estimation-Adaptive Models
November 30, 2023
Autores: Jinxin Zhou, Tianyu Ding, Tianyi Chen, Jiachen Jiang, Ilya Zharkov, Zhihui Zhu, Luming Liang
cs.AI
Resumen
Presentamos DREAM, un novedoso marco de entrenamiento que representa Modelos de Rectificación de Difusión y Estimación Adaptativa, el cual requiere cambios mínimos en el código (solo tres líneas) y mejora significativamente la alineación entre el entrenamiento y el muestreo en modelos de difusión. DREAM cuenta con dos componentes: la rectificación de difusión, que ajusta el entrenamiento para reflejar el proceso de muestreo, y la adaptación de estimación, que equilibra la percepción frente a la distorsión. Cuando se aplica a la superresolución de imágenes (SR), DREAM navega hábilmente el equilibrio entre minimizar la distorsión y preservar una alta calidad de imagen. Los experimentos demuestran la superioridad de DREAM sobre los métodos estándar de SR basados en difusión, mostrando una convergencia de entrenamiento de 2 a 3 veces más rápida y una reducción de 10 a 20 veces en los pasos de muestreo necesarios para lograr resultados comparables o superiores. Esperamos que DREAM inspire una reconsideración de los paradigmas de entrenamiento en modelos de difusión.
English
We present DREAM, a novel training framework representing Diffusion
Rectification and Estimation-Adaptive Models, requiring minimal code changes
(just three lines) yet significantly enhancing the alignment of training with
sampling in diffusion models. DREAM features two components: diffusion
rectification, which adjusts training to reflect the sampling process, and
estimation adaptation, which balances perception against distortion. When
applied to image super-resolution (SR), DREAM adeptly navigates the tradeoff
between minimizing distortion and preserving high image quality. Experiments
demonstrate DREAM's superiority over standard diffusion-based SR methods,
showing a 2 to 3times faster training convergence and a 10 to
20times reduction in necessary sampling steps to achieve comparable or
superior results. We hope DREAM will inspire a rethinking of diffusion model
training paradigms.