Inverse-and-Edit : Édition d'images efficace et rapide par cohérence cyclique des modèles
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Auteurs: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Résumé
Les récents progrès dans l'édition d'images avec des modèles de diffusion ont permis d'obtenir des résultats impressionnants, offrant un contrôle précis sur le processus de génération. Cependant, ces méthodes sont intensives en calcul en raison de leur nature itérative. Bien que les modèles de diffusion distillés permettent une inférence plus rapide, leurs capacités d'édition restent limitées, principalement en raison d'une qualité d'inversion médiocre. Une inversion et une reconstruction de haute fidélité sont essentielles pour une édition d'image précise, car elles préservent l'intégrité structurelle et sémantique de l'image source. Dans ce travail, nous proposons un nouveau cadre qui améliore l'inversion d'image en utilisant des modèles de cohérence, permettant une édition de haute qualité en seulement quatre étapes. Notre méthode introduit une stratégie d'optimisation de cohérence cyclique qui améliore significativement la précision de la reconstruction et permet un compromis contrôlable entre l'éditabilité et la préservation du contenu. Nous obtenons des performances de pointe sur diverses tâches et ensembles de données d'édition d'images, démontrant que notre méthode égale ou dépasse les modèles de diffusion à pleine étape tout en étant substantiellement plus efficace. Le code de notre méthode est disponible sur GitHub à l'adresse https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.