BlurDM: Um Modelo de Difusão de Desfoque para Remoção de Desfoque em Imagens
BlurDM: A Blur Diffusion Model for Image Deblurring
December 3, 2025
Autores: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin
cs.AI
Resumo
Os modelos de difusão mostram potencial para a remoção de desfoque em cenas dinâmicas; no entanto, estudos existentes frequentemente não conseguem aproveitar a natureza intrínseca do processo de desfoque dentro dos modelos de difusão, limitando seu potencial total. Para resolver isso, apresentamos um Modelo de Difusão de Desfoque (BlurDM), que integra perfeitamente o processo de formação do desfoque na difusão para remoção de desfoque em imagens. Observando que o desfoque de movimento decorre da exposição contínua, o BlurDM modela implicitamente o processo de formação do desfoque por meio de um esquema direto de dupla difusão, difundindo tanto ruído quanto desfoque sobre uma imagem nítida. Durante o processo reverso de geração, derivamos uma formulação de dupla remoção de ruído e desfoque, permitindo que o BlurDM recupere a imagem nítida removendo simultaneamente ruído e desfoque, dado ruído gaussiano puro condicionado na imagem desfocada como entrada. Adicionalmente, para integrar eficientemente o BlurDM em redes de remoção de desfoque, executamos o BlurDM no espaço latente, formando uma rede de geração de prior flexível para remoção de desfoque. Experimentos extensivos demonstram que o BlurDM melhora significativa e consistentemente os métodos existentes de remoção de desfoque em quatro conjuntos de dados de referência. O código-fonte está disponível em https://github.com/Jin-Ting-He/BlurDM.
English
Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.