ChatPaper.aiChatPaper

DREAM: Модели с коррекцией диффузии и адаптивной оценкой

DREAM: Diffusion Rectification and Estimation-Adaptive Models

November 30, 2023
Авторы: Jinxin Zhou, Tianyu Ding, Tianyi Chen, Jiachen Jiang, Ilya Zharkov, Zhihui Zhu, Luming Liang
cs.AI

Аннотация

Мы представляем DREAM — новую структуру обучения, обозначающую Модели с Коррекцией Диффузии и Адаптивной Оценкой, которая требует минимальных изменений в коде (всего три строки), но при этом значительно улучшает согласованность обучения и выборки в диффузионных моделях. DREAM включает два компонента: коррекцию диффузии, которая настраивает обучение для отражения процесса выборки, и адаптацию оценки, которая балансирует восприятие и искажение. Применяемый к задаче супер-разрешения изображений (SR), DREAM эффективно управляет компромиссом между минимизацией искажений и сохранением высокого качества изображения. Эксперименты демонстрируют превосходство DREAM над стандартными методами SR на основе диффузии, показывая ускорение сходимости обучения в 2–3 раза и сокращение необходимых шагов выборки в 10–20 раз для достижения сопоставимых или лучших результатов. Мы надеемся, что DREAM вдохновит на переосмысление парадигм обучения диффузионных моделей.
English
We present DREAM, a novel training framework representing Diffusion Rectification and Estimation-Adaptive Models, requiring minimal code changes (just three lines) yet significantly enhancing the alignment of training with sampling in diffusion models. DREAM features two components: diffusion rectification, which adjusts training to reflect the sampling process, and estimation adaptation, which balances perception against distortion. When applied to image super-resolution (SR), DREAM adeptly navigates the tradeoff between minimizing distortion and preserving high image quality. Experiments demonstrate DREAM's superiority over standard diffusion-based SR methods, showing a 2 to 3times faster training convergence and a 10 to 20times reduction in necessary sampling steps to achieve comparable or superior results. We hope DREAM will inspire a rethinking of diffusion model training paradigms.
PDF171December 15, 2024