Inverso-y-Editar: Edición de Imágenes Eficaz y Rápida mediante Modelos de Consistencia Cíclica
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Autores: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Resumen
Los avances recientes en la edición de imágenes con modelos de difusión han logrado resultados impresionantes, ofreciendo un control detallado sobre el proceso de generación. Sin embargo, estos métodos son computacionalmente intensivos debido a su naturaleza iterativa. Aunque los modelos de difusión destilados permiten una inferencia más rápida, sus capacidades de edición siguen siendo limitadas, principalmente debido a la baja calidad de la inversión. La inversión y reconstrucción de alta fidelidad son esenciales para una edición precisa de imágenes, ya que preservan la integridad estructural y semántica de la imagen original. En este trabajo, proponemos un marco novedoso que mejora la inversión de imágenes utilizando modelos de consistencia, permitiendo una edición de alta calidad en solo cuatro pasos. Nuestro método introduce una estrategia de optimización de consistencia cíclica que mejora significativamente la precisión de la reconstrucción y permite un equilibrio controlable entre la capacidad de edición y la preservación del contenido. Logramos un rendimiento de vanguardia en diversas tareas y conjuntos de datos de edición de imágenes, demostrando que nuestro método iguala o supera a los modelos de difusión de pasos completos mientras es sustancialmente más eficiente. El código de nuestro método está disponible en GitHub en https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.