ChatPaper.aiChatPaper

Inverse-and-Edit : Édition d'images efficace et rapide par cohérence cyclique des modèles

Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models

June 23, 2025
Auteurs: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI

Résumé

Les récents progrès dans l'édition d'images avec des modèles de diffusion ont permis d'obtenir des résultats impressionnants, offrant un contrôle précis sur le processus de génération. Cependant, ces méthodes sont intensives en calcul en raison de leur nature itérative. Bien que les modèles de diffusion distillés permettent une inférence plus rapide, leurs capacités d'édition restent limitées, principalement en raison d'une qualité d'inversion médiocre. Une inversion et une reconstruction de haute fidélité sont essentielles pour une édition d'image précise, car elles préservent l'intégrité structurelle et sémantique de l'image source. Dans ce travail, nous proposons un nouveau cadre qui améliore l'inversion d'image en utilisant des modèles de cohérence, permettant une édition de haute qualité en seulement quatre étapes. Notre méthode introduit une stratégie d'optimisation de cohérence cyclique qui améliore significativement la précision de la reconstruction et permet un compromis contrôlable entre l'éditabilité et la préservation du contenu. Nous obtenons des performances de pointe sur diverses tâches et ensembles de données d'édition d'images, démontrant que notre méthode égale ou dépasse les modèles de diffusion à pleine étape tout en étant substantiellement plus efficace. Le code de notre méthode est disponible sur GitHub à l'adresse https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved impressive results, offering fine-grained control over the generation process. However, these methods are computationally intensive because of their iterative nature. While distilled diffusion models enable faster inference, their editing capabilities remain limited, primarily because of poor inversion quality. High-fidelity inversion and reconstruction are essential for precise image editing, as they preserve the structural and semantic integrity of the source image. In this work, we propose a novel framework that enhances image inversion using consistency models, enabling high-quality editing in just four steps. Our method introduces a cycle-consistency optimization strategy that significantly improves reconstruction accuracy and enables a controllable trade-off between editability and content preservation. We achieve state-of-the-art performance across various image editing tasks and datasets, demonstrating that our method matches or surpasses full-step diffusion models while being substantially more efficient. The code of our method is available on GitHub at https://github.com/ControlGenAI/Inverse-and-Edit.
PDF381June 26, 2025