Генеративное перефокусирование: гибкое управление размытием на основе одного изображения
Generative Refocusing: Flexible Defocus Control from a Single Image
December 18, 2025
Авторы: Chun-Wei Tuan Mu, Jia-Bin Huang, Yu-Lun Liu
cs.AI
Аннотация
Управление глубиной резкости является важной задачей в фотографии, но достижение идеальной фокусировки часто требует множества попыток или специального оборудования. Рефокусировка на основе одного изображения остается сложной проблемой. Она включает восстановление резкого содержимого и создание реалистичного боке. Существующие методы имеют существенные недостатки: они требуют полностью сфокусированных входных данных, зависят от синтетических данных из симуляторов и обладают ограниченным контролем над апертурой. Мы представляем Generative Refocusing — двухэтапный процесс, использующий DeblurNet для восстановления полностью сфокусированных изображений из различных исходных данных и BokehNet для создания управляемого боке. Нашим ключевым нововведением является полуконтролируемое обучение. Этот метод сочетает синтетические парные данные с непарными реальными изображениями с боке, используя EXIF-метаданные для захвата реальных оптических характеристик, недоступных в симуляторах. Наши эксперименты демонстрируют превосходные результаты в тестах по удалению размытия, синтезу боке и рефокусировке. Кроме того, наш метод позволяет осуществлять текстовые корректировки и использовать пользовательские формы апертуры.
English
Depth-of-field control is essential in photography, but getting the perfect focus often takes several tries or special equipment. Single-image refocusing is still difficult. It involves recovering sharp content and creating realistic bokeh. Current methods have significant drawbacks. They need all-in-focus inputs, depend on synthetic data from simulators, and have limited control over aperture. We introduce Generative Refocusing, a two-step process that uses DeblurNet to recover all-in-focus images from various inputs and BokehNet for creating controllable bokeh. Our main innovation is semi-supervised training. This method combines synthetic paired data with unpaired real bokeh images, using EXIF metadata to capture real optical characteristics beyond what simulators can provide. Our experiments show we achieve top performance in defocus deblurring, bokeh synthesis, and refocusing benchmarks. Additionally, our Generative Refocusing allows text-guided adjustments and custom aperture shapes.