Inverse-and-Edit: Effectief en Snel Bewerken van Afbeeldingen door Cyclische Consistentie Modellen
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Auteurs: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Samenvatting
Recente vooruitgang in beeldbewerking met diffusiemodellen heeft indrukwekkende resultaten opgeleverd, waarbij fijnmazige controle over het generatieproces mogelijk wordt gemaakt. Deze methoden zijn echter rekenintensief vanwege hun iteratieve aard. Hoewel gedistilleerde diffusiemodellen snellere inferentie mogelijk maken, blijven hun bewerkingsmogelijkheden beperkt, voornamelijk vanwege de slechte inversiekwaliteit. Hoogwaardige inversie en reconstructie zijn essentieel voor precieze beeldbewerking, omdat ze de structurele en semantische integriteit van het bronbeeld behouden. In dit werk stellen we een nieuw raamwerk voor dat beeldinversie verbetert door gebruik te maken van consistentiemodellen, waardoor hoogwaardige bewerking in slechts vier stappen mogelijk wordt. Onze methode introduceert een cyclusconsistentie-optimalisatiestrategie die de reconstructienauwkeurigheid aanzienlijk verbetert en een beheersbare afweging mogelijk maakt tussen bewerkbaarheid en inhoudsbehoud. We behalen state-of-the-art prestaties op verschillende beeldbewerkingstaken en datasets, wat aantoont dat onze methode gelijkwaardig of beter presteert dan volledige-stap diffusiemodellen, terwijl ze aanzienlijk efficiënter is. De code van onze methode is beschikbaar op GitHub via https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.