ChatPaper.aiChatPaper

Apprendre à refocaliser avec les modèles de diffusion vidéo

Learning to Refocus with Video Diffusion Models

December 22, 2025
papers.authors: SaiKiran Tedla, Zhoutong Zhang, Xuaner Zhang, Shumian Xin
cs.AI

papers.abstract

La mise au point est un pilier de la photographie, pourtant les systèmes autofocus échouent souvent à capturer le sujet souhaité, et les utilisateurs souhaitent fréquemment ajuster la mise au point après la capture. Nous présentons une méthode novatrice pour une remise au point post-capture réaliste en utilisant des modèles de diffusion vidéo. À partir d'une seule image floue, notre approche génère une pile focale de précision perceptuelle, représentée sous forme de séquence vidéo, permettant une remise au point interactive et ouvrant la voie à une gamme d'applications en aval. Nous publions un jeu de données à grande échelle de piles focales acquises dans diverses conditions réelles de smartphones pour soutenir ces travaux et les recherches futures. Notre méthode surpasse constamment les approches existantes tant en qualité perceptuelle qu'en robustesse dans des scénarios difficiles, ouvrant la voie à des capacités de retouche de la mise au point plus avancées dans la photographie quotidienne. Le code et les données sont disponibles sur www.learn2refocus.github.io.
English
Focus is a cornerstone of photography, yet autofocus systems often fail to capture the intended subject, and users frequently wish to adjust focus after capture. We introduce a novel method for realistic post-capture refocusing using video diffusion models. From a single defocused image, our approach generates a perceptually accurate focal stack, represented as a video sequence, enabling interactive refocusing and unlocking a range of downstream applications. We release a large-scale focal stack dataset acquired under diverse real-world smartphone conditions to support this work and future research. Our method consistently outperforms existing approaches in both perceptual quality and robustness across challenging scenarios, paving the way for more advanced focus-editing capabilities in everyday photography. Code and data are available at www.learn2refocus.github.io
PDF01December 25, 2025