Inverse-and-Edit: Effektive und schnelle Bildbearbeitung durch Zyklus-Konsistenz-Modelle
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Autoren: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Zusammenfassung
Jüngste Fortschritte in der Bildbearbeitung mit Diffusionsmodellen haben beeindruckende Ergebnisse erzielt und eine fein abgestimmte Kontrolle über den Generierungsprozess ermöglicht. Diese Methoden sind jedoch aufgrund ihres iterativen Charakters rechenintensiv. Während destillierte Diffusionsmodelle eine schnellere Inferenz ermöglichen, bleiben ihre Bearbeitungsfähigkeiten begrenzt, hauptsächlich aufgrund einer schlechten Inversionsqualität. Hochwertige Inversion und Rekonstruktion sind für eine präzise Bildbearbeitung unerlässlich, da sie die strukturelle und semantische Integrität des Ausgangsbildes bewahren. In dieser Arbeit schlagen wir ein neuartiges Framework vor, das die Bildinversion mithilfe von Konsistenzmodellen verbessert und eine hochwertige Bearbeitung in nur vier Schritten ermöglicht. Unsere Methode führt eine Zyklus-Konsistenz-Optimierungsstrategie ein, die die Rekonstruktionsgenauigkeit signifikant verbessert und einen kontrollierbaren Kompromiss zwischen Bearbeitbarkeit und Inhaltserhaltung ermöglicht. Wir erreichen state-of-the-art Leistungen in verschiedenen Bildbearbeitungsaufgaben und Datensätzen und zeigen, dass unsere Methode vollständige Diffusionsmodelle erreicht oder übertrifft, während sie deutlich effizienter ist. Der Code unserer Methode ist auf GitHub unter https://github.com/ControlGenAI/Inverse-and-Edit verfügbar.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.