Inverse-and-Edit: Modifica Efficace e Rapida delle Immagini tramite Modelli di Coerenza Ciclica
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Autori: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Abstract
I recenti progressi nell'editing di immagini con modelli di diffusione hanno ottenuto risultati impressionanti, offrendo un controllo fine sul processo di generazione. Tuttavia, questi metodi sono computazionalmente intensivi a causa della loro natura iterativa. Sebbene i modelli di diffusione distillati consentano un'inferenza più veloce, le loro capacità di editing rimangono limitate, principalmente a causa della scarsa qualità dell'inversione. Un'inversione e una ricostruzione ad alta fedeltà sono essenziali per un editing preciso delle immagini, poiché preservano l'integrità strutturale e semantica dell'immagine sorgente. In questo lavoro, proponiamo un nuovo framework che migliora l'inversione delle immagini utilizzando modelli di consistenza, consentendo un editing di alta qualità in soli quattro passaggi. Il nostro metodo introduce una strategia di ottimizzazione basata sulla ciclicità che migliora significativamente l'accuratezza della ricostruzione e consente un compromesso controllabile tra editabilità e conservazione del contenuto. Raggiungiamo prestazioni all'avanguardia in vari task di editing di immagini e dataset, dimostrando che il nostro metodo eguaglia o supera i modelli di diffusione a passi completi, pur essendo sostanzialmente più efficiente. Il codice del nostro metodo è disponibile su GitHub all'indirizzo https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.