BlurDM: Een vervagingsdiffusiemodel voor beeldontscherping
BlurDM: A Blur Diffusion Model for Image Deblurring
December 3, 2025
Auteurs: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin
cs.AI
Samenvatting
Diffusiemodellen tonen veelbelovende resultaten voor het verwijderen van dynamische bewegingsonscherpte in scènes; bestaande onderzoeken slagen er echter vaak niet in om de intrinsieke aard van het onscherpteproces binnen diffusiemodellen te benutten, wat hun volledige potentieel beperkt. Om dit aan te pakken, presenteren wij een Blur Diffusion Model (BlurDM), dat het onscherptevormingsproces naadloos integreert in diffusie voor beelddeblurring. Omdat bewegingonscherpte voortkomt uit continue belichting, modelleert BlurDM het onscherptevormingsproces impliciet via een duale-diffusie voorwaartse schema, waarbij zowel ruis als onscherpte worden gediffundeerd op een scherp beeld. Tijdens het omgekeerde generatieproces leiden we een duale formulering voor ruisverwijdering en deblurring af, waardoor BlurDM in staat is om het scherpe beeld te herstellen door gelijktijdig ruis te verwijderen en onscherpte te reduceren, uitgaande van pure Gaussische ruis die geconditioneerd is op het onscherpe beeld als invoer. Daarnaast voeren we BlurDM uit in de latente ruimte om het efficiënt te integreren in deblurringnetwerken, waardoor een flexibel prior-generatienetwerk voor deblurring ontstaat. Uitgebreide experimenten tonen aan dat BlurDM bestaande deblurringmethoden aanzienlijk en consistent verbetert op vier benchmarkdatasets. De broncode is beschikbaar op https://github.com/Jin-Ting-He/BlurDM.
English
Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.