ChatPaper.aiChatPaper

Refocalización Generativa: Control Flexible del Desenfoque a partir de una Única Imagen

Generative Refocusing: Flexible Defocus Control from a Single Image

December 18, 2025
Autores: Chun-Wei Tuan Mu, Jia-Bin Huang, Yu-Lun Liu
cs.AI

Resumen

El control de la profundidad de campo es esencial en fotografía, pero lograr el enfoque perfecto a menudo requiere varios intentos o equipos especializados. El reenfoque a partir de una única imagen sigue siendo un desafío. Este proceso implica recuperar contenido nítido y crear un desenfoque (bokeh) realista. Los métodos actuales presentan inconvenientes significativos: requieren imágenes con todo enfocado, dependen de datos sintéticos de simuladores y ofrecen un control limitado sobre la apertura. Presentamos Generative Refocusing, un proceso en dos pasos que utiliza DeblurNet para recuperar imágenes con todo enfocado a partir de varias entradas y BokehNet para crear un bokeh controlable. Nuestra principal innovación es el entrenamiento semi-supervisado. Este método combina datos sintéticos emparejados con imágenes reales de bokeh no emparejadas, utilizando metadatos EXIF para capturar características ópticas reales que van más allá de lo que los simuladores pueden proporcionar. Nuestros experimentos demuestran que logramos un rendimiento superior en las pruebas comparativas de eliminación de desenfoque, síntesis de bokeh y reenfoque. Adicionalmente, nuestro Generative Refocusing permite ajustes guiados por texto y formas de apertura personalizadas.
English
Depth-of-field control is essential in photography, but getting the perfect focus often takes several tries or special equipment. Single-image refocusing is still difficult. It involves recovering sharp content and creating realistic bokeh. Current methods have significant drawbacks. They need all-in-focus inputs, depend on synthetic data from simulators, and have limited control over aperture. We introduce Generative Refocusing, a two-step process that uses DeblurNet to recover all-in-focus images from various inputs and BokehNet for creating controllable bokeh. Our main innovation is semi-supervised training. This method combines synthetic paired data with unpaired real bokeh images, using EXIF metadata to capture real optical characteristics beyond what simulators can provide. Our experiments show we achieve top performance in defocus deblurring, bokeh synthesis, and refocusing benchmarks. Additionally, our Generative Refocusing allows text-guided adjustments and custom aperture shapes.
PDF272December 20, 2025