BlurDM: Un Modelo de Difusión de Desenfoque para la Eliminación de Desenfoque en Imágenes
BlurDM: A Blur Diffusion Model for Image Deblurring
December 3, 2025
Autores: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin
cs.AI
Resumen
Los modelos de difusión muestran potencial para la eliminación de desenfoque en escenas dinámicas; sin embargo, los estudios existentes a menudo no logran aprovechar la naturaleza intrínseca del proceso de desenfoque dentro de los modelos de difusión, limitando su potencial completo. Para abordarlo, presentamos un Modelo de Difusión de Desenfoque (BlurDM), que integra perfectamente el proceso de formación de desenfoque en la difusión para la eliminación de desenfoque en imágenes. Observando que el desenfoque de movimiento proviene de la exposición continua, BlurDM modela implícitamente el proceso de formación de desenfoque mediante un esquema directo de doble difusión, difundiendo tanto ruido como desenfoque sobre una imagen nítida. Durante el proceso de generación inversa, derivamos una formulación de doble eliminación de ruido y desenfoque, permitiendo que BlurDM recupere la imagen nítida mediante la eliminación simultánea de ruido y desenfoque, dado un ruido gaussiano puro condicionado por la imagen desenfocada como entrada. Adicionalmente, para integrar eficientemente BlurDM en redes de eliminación de desenfoque, realizamos BlurDM en el espacio latente, formando una red de generación de previos flexible para la eliminación de desenfoque. Experimentos exhaustivos demuestran que BlurDM mejora significativa y consistentemente los métodos existentes de eliminación de desenfoque en cuatro conjuntos de datos de referencia. El código fuente está disponible en https://github.com/Jin-Ting-He/BlurDM.
English
Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.