BlurDM: Ein Blur-Diffusionsmodell zur Bildentfernung
BlurDM: A Blur Diffusion Model for Image Deblurring
December 3, 2025
papers.authors: Jin-Ting He, Fu-Jen Tsai, Yan-Tsung Peng, Min-Hung Chen, Chia-Wen Lin, Yen-Yu Lin
cs.AI
papers.abstract
Diffusionsmodelle zeigen vielversprechende Ergebnisse bei der Entfernung von Bewegungsunschärfe in dynamischen Szenen; bestehende Studien nutzen jedoch häufig die intrinsische Natur des Unschärfeprozesses innerhalb von Diffusionsmodellen nicht aus, was ihr volles Potenzial begrenzt. Um dieses Problem zu adressieren, stellen wir ein Blur Diffusion Model (BlurDM) vor, das den Unschärfebildungsprozess nahtlos in die Diffusion zur Bildentschärfung integriert. Aufbauend auf der Beobachtung, dass Bewegungsunschärfe auf kontinuierlicher Belichtung beruht, modelliert BlurDM den Unschärfebildungsprozess implizit durch ein duales Diffusions-Vorwärtsschema, bei dem sowohl Rauschen als auch Unschärfe auf ein scharfes Bild diffundiert werden. Während des umgekehrten Generierungsprozesses leiten wir eine Formulierung für duale Entrauschung und Entschärfung ab, die es BlurDM ermöglicht, das scharfe Bild durch simultanes Entrauschen und Entschärfen wiederherzustellen, wobei reines Gaußsches Rauschen, konditioniert auf das unscharfe Bild, als Eingabe dient. Zusätzlich führen wir BlurDM im latenten Raum durch, um es effizient in Entschärfungsnetzwerke zu integrieren, und bilden so ein flexibles Prior-Generierungsnetzwerk für die Entschärfung. Umfangreiche Experimente belegen, dass BlurDM bestehende Entschärfungsmethoden auf vier Benchmark-Datensätzen signifikant und konsistent verbessert. Der Quellcode ist verfügbar unter https://github.com/Jin-Ting-He/BlurDM.
English
Diffusion models show promise for dynamic scene deblurring; however, existing studies often fail to leverage the intrinsic nature of the blurring process within diffusion models, limiting their full potential. To address it, we present a Blur Diffusion Model (BlurDM), which seamlessly integrates the blur formation process into diffusion for image deblurring. Observing that motion blur stems from continuous exposure, BlurDM implicitly models the blur formation process through a dual-diffusion forward scheme, diffusing both noise and blur onto a sharp image. During the reverse generation process, we derive a dual denoising and deblurring formulation, enabling BlurDM to recover the sharp image by simultaneously denoising and deblurring, given pure Gaussian noise conditioned on the blurred image as input. Additionally, to efficiently integrate BlurDM into deblurring networks, we perform BlurDM in the latent space, forming a flexible prior generation network for deblurring. Extensive experiments demonstrate that BlurDM significantly and consistently enhances existing deblurring methods on four benchmark datasets. The source code is available at https://github.com/Jin-Ting-He/BlurDM.