BlurDM: Un Modello di Diffusione della Sfocatura per la Deblurring delle Immagini
BlurDM: A Blur Diffusion Model for Image Deblurring
December 3, 2025
Autori: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin
cs.AI
Abstract
I modelli di diffusione mostrano potenziale per la deblurring di scene dinamiche; tuttavia, gli studi esistenti spesso non riescono a sfruttare la natura intrinseca del processo di sfocatura all'interno dei modelli di diffusione, limitandone il pieno potenziale. Per affrontare questo problema, presentiamo un Blur Diffusion Model (BlurDM), che integra perfettamente il processo di formazione dello sfocato nella diffusione per la deblurring delle immagini. Osservando che lo sfocamento da movimento deriva da un'esposizione continua, BlurDM modella implicitamente il processo di formazione dello sfocato attraverso uno schema forward a doppia diffusione, diffondendo sia rumore che sfocatura su un'immagine nitida. Durante il processo di generazione inversa, deriviamo una formulazione di doppia rimozione del rumore e deblurring, che consente a BlurDM di recuperare l'immagine nitida rimuovendo simultaneamente rumore e sfocatura, dato un rumore gaussiano puro condizionato dall'immagine sfocata come input. Inoltre, per integrare efficientemente BlurDM nelle reti di deblurring, eseguiamo BlurDM nello spazio latente, formando una rete di generazione di prior flessibile per la deblurring. Esperimenti estesi dimostrano che BlurDM migliora in modo significativo e consistente i metodi di deblurring esistenti su quattro dataset di benchmark. Il codice sorgente è disponibile all'indirizzo https://github.com/Jin-Ting-He/BlurDM.
English
Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.