ChatPaper.aiChatPaper

Inverso-y-Editar: Edición de Imágenes Eficaz y Rápida mediante Modelos de Consistencia Cíclica

Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models

June 23, 2025
Autores: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI

Resumen

Los avances recientes en la edición de imágenes con modelos de difusión han logrado resultados impresionantes, ofreciendo un control detallado sobre el proceso de generación. Sin embargo, estos métodos son computacionalmente intensivos debido a su naturaleza iterativa. Aunque los modelos de difusión destilados permiten una inferencia más rápida, sus capacidades de edición siguen siendo limitadas, principalmente debido a la baja calidad de la inversión. La inversión y reconstrucción de alta fidelidad son esenciales para una edición precisa de imágenes, ya que preservan la integridad estructural y semántica de la imagen original. En este trabajo, proponemos un marco novedoso que mejora la inversión de imágenes utilizando modelos de consistencia, permitiendo una edición de alta calidad en solo cuatro pasos. Nuestro método introduce una estrategia de optimización de consistencia cíclica que mejora significativamente la precisión de la reconstrucción y permite un equilibrio controlable entre la capacidad de edición y la preservación del contenido. Logramos un rendimiento de vanguardia en diversas tareas y conjuntos de datos de edición de imágenes, demostrando que nuestro método iguala o supera a los modelos de difusión de pasos completos mientras es sustancialmente más eficiente. El código de nuestro método está disponible en GitHub en https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved impressive results, offering fine-grained control over the generation process. However, these methods are computationally intensive because of their iterative nature. While distilled diffusion models enable faster inference, their editing capabilities remain limited, primarily because of poor inversion quality. High-fidelity inversion and reconstruction are essential for precise image editing, as they preserve the structural and semantic integrity of the source image. In this work, we propose a novel framework that enhances image inversion using consistency models, enabling high-quality editing in just four steps. Our method introduces a cycle-consistency optimization strategy that significantly improves reconstruction accuracy and enables a controllable trade-off between editability and content preservation. We achieve state-of-the-art performance across various image editing tasks and datasets, demonstrating that our method matches or surpasses full-step diffusion models while being substantially more efficient. The code of our method is available on GitHub at https://github.com/ControlGenAI/Inverse-and-Edit.
PDF381June 26, 2025