ChatPaper.aiChatPaper

Inverse-and-Edit: Modifica Efficace e Rapida delle Immagini tramite Modelli di Coerenza Ciclica

Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models

June 23, 2025
Autori: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI

Abstract

I recenti progressi nell'editing di immagini con modelli di diffusione hanno ottenuto risultati impressionanti, offrendo un controllo fine sul processo di generazione. Tuttavia, questi metodi sono computazionalmente intensivi a causa della loro natura iterativa. Sebbene i modelli di diffusione distillati consentano un'inferenza più veloce, le loro capacità di editing rimangono limitate, principalmente a causa della scarsa qualità dell'inversione. Un'inversione e una ricostruzione ad alta fedeltà sono essenziali per un editing preciso delle immagini, poiché preservano l'integrità strutturale e semantica dell'immagine sorgente. In questo lavoro, proponiamo un nuovo framework che migliora l'inversione delle immagini utilizzando modelli di consistenza, consentendo un editing di alta qualità in soli quattro passaggi. Il nostro metodo introduce una strategia di ottimizzazione basata sulla ciclicità che migliora significativamente l'accuratezza della ricostruzione e consente un compromesso controllabile tra editabilità e conservazione del contenuto. Raggiungiamo prestazioni all'avanguardia in vari task di editing di immagini e dataset, dimostrando che il nostro metodo eguaglia o supera i modelli di diffusione a passi completi, pur essendo sostanzialmente più efficiente. Il codice del nostro metodo è disponibile su GitHub all'indirizzo https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved impressive results, offering fine-grained control over the generation process. However, these methods are computationally intensive because of their iterative nature. While distilled diffusion models enable faster inference, their editing capabilities remain limited, primarily because of poor inversion quality. High-fidelity inversion and reconstruction are essential for precise image editing, as they preserve the structural and semantic integrity of the source image. In this work, we propose a novel framework that enhances image inversion using consistency models, enabling high-quality editing in just four steps. Our method introduces a cycle-consistency optimization strategy that significantly improves reconstruction accuracy and enables a controllable trade-off between editability and content preservation. We achieve state-of-the-art performance across various image editing tasks and datasets, demonstrating that our method matches or surpasses full-step diffusion models while being substantially more efficient. The code of our method is available on GitHub at https://github.com/ControlGenAI/Inverse-and-Edit.
PDF411June 26, 2025