Leren herfocussen met videodiffusiemodellen
Learning to Refocus with Video Diffusion Models
December 22, 2025
Auteurs: SaiKiran Tedla, Zhoutong Zhang, Xuaner Zhang, Shumian Xin
cs.AI
Samenvatting
Scherpstelling is een hoeksteen van de fotografie, maar autofocussystemen slagen er vaak niet in het beoogde onderwerp vast te leggen, en gebruikers willen de scherpte vaak na de opname nog aanpassen. Wij introduceren een nieuwe methode voor realistische nabewerkings-refocussering met behulp van video-diffusiemodellen. Uit één enkel onscherp beeld genereert onze aanpak een perceptueel nauwkeurige focale stapel, weergegeven als een videosequentie, waardoor interactieve refocussering mogelijk wordt en een reeks downstream-toepassingen ontsloten wordt. Ter ondersteuning van dit werk en toekomstig onderzoek publiceren we een grootschalige focale-stapeldataset, verzameld onder diverse real-world smartphone-omstandigheden. Onze methode presteert consistent beter dan bestaande benaderingen, zowel in perceptuele kwaliteit als robuustheid in uitdagende scenario's, en baant zo de weg voor geavanceerdere focusbewerkingsmogelijkheden in de alledaagse fotografie. Code en data zijn beschikbaar op www.learn2refocus.github.io.
English
Focus is a cornerstone of photography, yet autofocus systems often fail to capture the intended subject, and users frequently wish to adjust focus after capture. We introduce a novel method for realistic post-capture refocusing using video diffusion models. From a single defocused image, our approach generates a perceptually accurate focal stack, represented as a video sequence, enabling interactive refocusing and unlocking a range of downstream applications. We release a large-scale focal stack dataset acquired under diverse real-world smartphone conditions to support this work and future research. Our method consistently outperforms existing approaches in both perceptual quality and robustness across challenging scenarios, paving the way for more advanced focus-editing capabilities in everyday photography. Code and data are available at www.learn2refocus.github.io