Generative Refokusierung: Flexible Schärfentiefenkontrolle aus einem einzigen Bild
Generative Refocusing: Flexible Defocus Control from a Single Image
December 18, 2025
papers.authors: Chun-Wei Tuan Mu, Jia-Bin Huang, Yu-Lun Liu
cs.AI
papers.abstract
Die Schärfentiefenkontrolle ist in der Fotografie entscheidend, doch die perfekte Fokussierung erfordert oft mehrere Versuche oder spezielle Ausrüstung. Die Nachfokussierung aus einem Einzelbild bleibt schwierig. Sie umfasst die Wiederherstellung scharfer Bildinhalte und die Erzeugung realistischer Bokeh-Effekte. Bestehende Methoden weisen erhebliche Nachteile auf: Sie benötigen durchgängig scharfe Eingabebilder, basieren auf synthetischen Daten aus Simulatoren und bieten nur begrenzte Kontrolle über die Blende. Wir stellen Generative Refocusing vor, einen zweistufigen Prozess, der DeblurNet zur Wiederherstellung allumfassend scharfer Bilder aus verschiedenen Eingaben und BokehNet zur Erzeugung steuerbarer Bokeh-Effekte nutzt. Unsere wichtigste Innovation ist das semi-überwachte Training. Diese Methode kombiniert synthetische gepaarte Daten mit ungepaarten realen Bokeh-Bildern und nutzt EXIF-Metadaten, um reale optische Eigenschaften zu erfassen, die über die Möglichkeiten von Simulatoren hinausgehen. Unsere Experimente zeigen, dass wir Spitzenleistungen in den Bereichen Defokus-Entschärfung, Bokeh-Synthese und Nachfokussierung erreichen. Zusätzlich ermöglicht unser Generative Refocusing textgesteuerte Anpassungen und benutzerdefinierte Blendenformen.
English
Depth-of-field control is essential in photography, but getting the perfect focus often takes several tries or special equipment. Single-image refocusing is still difficult. It involves recovering sharp content and creating realistic bokeh. Current methods have significant drawbacks. They need all-in-focus inputs, depend on synthetic data from simulators, and have limited control over aperture. We introduce Generative Refocusing, a two-step process that uses DeblurNet to recover all-in-focus images from various inputs and BokehNet for creating controllable bokeh. Our main innovation is semi-supervised training. This method combines synthetic paired data with unpaired real bokeh images, using EXIF metadata to capture real optical characteristics beyond what simulators can provide. Our experiments show we achieve top performance in defocus deblurring, bokeh synthesis, and refocusing benchmarks. Additionally, our Generative Refocusing allows text-guided adjustments and custom aperture shapes.