ChatPaper.aiChatPaper

DREAM: Modelos Adaptativos de Estimación y Rectificación por Difusión

DREAM: Diffusion Rectification and Estimation-Adaptive Models

November 30, 2023
Autores: Jinxin Zhou, Tianyu Ding, Tianyi Chen, Jiachen Jiang, Ilya Zharkov, Zhihui Zhu, Luming Liang
cs.AI

Resumen

Presentamos DREAM, un novedoso marco de entrenamiento que representa Modelos de Rectificación de Difusión y Estimación Adaptativa, el cual requiere cambios mínimos en el código (solo tres líneas) y mejora significativamente la alineación entre el entrenamiento y el muestreo en modelos de difusión. DREAM cuenta con dos componentes: la rectificación de difusión, que ajusta el entrenamiento para reflejar el proceso de muestreo, y la adaptación de estimación, que equilibra la percepción frente a la distorsión. Cuando se aplica a la superresolución de imágenes (SR), DREAM navega hábilmente el equilibrio entre minimizar la distorsión y preservar una alta calidad de imagen. Los experimentos demuestran la superioridad de DREAM sobre los métodos estándar de SR basados en difusión, mostrando una convergencia de entrenamiento de 2 a 3 veces más rápida y una reducción de 10 a 20 veces en los pasos de muestreo necesarios para lograr resultados comparables o superiores. Esperamos que DREAM inspire una reconsideración de los paradigmas de entrenamiento en modelos de difusión.
English
We present DREAM, a novel training framework representing Diffusion Rectification and Estimation-Adaptive Models, requiring minimal code changes (just three lines) yet significantly enhancing the alignment of training with sampling in diffusion models. DREAM features two components: diffusion rectification, which adjusts training to reflect the sampling process, and estimation adaptation, which balances perception against distortion. When applied to image super-resolution (SR), DREAM adeptly navigates the tradeoff between minimizing distortion and preserving high image quality. Experiments demonstrate DREAM's superiority over standard diffusion-based SR methods, showing a 2 to 3times faster training convergence and a 10 to 20times reduction in necessary sampling steps to achieve comparable or superior results. We hope DREAM will inspire a rethinking of diffusion model training paradigms.
PDF171December 15, 2024