BlurDM: Модель размытой диффузии для устранения размытия изображений
BlurDM: A Blur Diffusion Model for Image Deblurring
December 3, 2025
Авторы: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin
cs.AI
Аннотация
Диффузионные модели демонстрируют перспективность для устранения размытия в динамических сценах; однако существующие исследования часто не используют внутреннюю природу процесса размытия в рамках диффузионных моделей, что ограничивает их полный потенциал. Чтобы решить эту проблему, мы представляем Модель Диффузии Размытия (BlurDM), которая бесшовно интегрирует процесс формирования размытия в диффузию для устранения размытия изображений. Наблюдая, что движение размытия возникает из-за непрерывной экспозиции, BlurDM неявно моделирует процесс формирования размытия через схему прямой двойной диффузии, диффундируя как шум, так и размытие на четкое изображение. В процессе обратного генерации мы выводим формулу двойного шумоподавления и устранения размытия, позволяя BlurDM восстанавливать четкое изображение путем одновременного подавления шума и устранения размытия, при условии, что на вход подается чистый гауссов шум, обусловленный размытым изображением. Кроме того, для эффективной интеграции BlurDM в сети устранения размытия мы выполняем BlurDM в латентном пространстве, формируя гибкую сеть генерации априорного распределения для устранения размытия. Многочисленные эксперименты демонстрируют, что BlurDM значительно и последовательно улучшает существующие методы устранения размытия на четырех эталонных наборах данных. Исходный код доступен по адресу https://github.com/Jin-Ting-He/BlurDM.
English
Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.