ChatPaper.aiChatPaper

Refocalisation générative : Contrôle flexible de la mise au point à partir d'une seule image

Generative Refocusing: Flexible Defocus Control from a Single Image

December 18, 2025
papers.authors: Chun-Wei Tuan Mu, Jia-Bin Huang, Yu-Lun Liu
cs.AI

papers.abstract

Le contrôle de la profondeur de champ est essentiel en photographie, mais obtenir la mise au point parfaite nécessite souvent plusieurs essais ou un équipement spécialisé. La remise au point sur une image unique reste difficile. Elle implique de restaurer un contenu net et de créer un flou d'arrière-plan (bokeh) réaliste. Les méthodes actuelles présentent des inconvénients majeurs : elles nécessitent des images entièrement nettes en entrée, dépendent de données synthétiques issues de simulateurs et offrent un contrôle limité sur l'ouverture. Nous présentons la Remise au Point par Génération (Generative Refocusing), un processus en deux étapes utilisant DeblurNet pour restaurer des images entièrement nettes à partir de diverses entrées et BokehNet pour créer un bokeh contrôlable. Notre innovation principale réside dans l'apprentissage semi-supervisé. Cette méthode combine des données appariées synthétiques avec des images réelles de bokeh non appariées, en utilisant les métadonnées EXIF pour capturer les caractéristiques optiques réelles au-delà de ce que les simulateurs peuvent fournir. Nos expériences montrent que nous obtenons des performances optimales dans les benchmarks de débruitage de flou de défocalisation, de synthèse de bokeh et de remise au point. De plus, notre méthode de Remise au Point par Génération permet des ajustements guidés par le texte et l'utilisation de formes d'ouverture personnalisées.
English
Depth-of-field control is essential in photography, but getting the perfect focus often takes several tries or special equipment. Single-image refocusing is still difficult. It involves recovering sharp content and creating realistic bokeh. Current methods have significant drawbacks. They need all-in-focus inputs, depend on synthetic data from simulators, and have limited control over aperture. We introduce Generative Refocusing, a two-step process that uses DeblurNet to recover all-in-focus images from various inputs and BokehNet for creating controllable bokeh. Our main innovation is semi-supervised training. This method combines synthetic paired data with unpaired real bokeh images, using EXIF metadata to capture real optical characteristics beyond what simulators can provide. Our experiments show we achieve top performance in defocus deblurring, bokeh synthesis, and refocusing benchmarks. Additionally, our Generative Refocusing allows text-guided adjustments and custom aperture shapes.
PDF272December 20, 2025