Inverso-e-Editar: Edição de Imagens Eficaz e Rápida por Modelos de Consistência de Ciclo
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Autores: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Resumo
Os avanços recentes na edição de imagens com modelos de difusão têm alcançado resultados impressionantes, oferecendo controle refinado sobre o processo de geração. No entanto, esses métodos são computacionalmente intensivos devido à sua natureza iterativa. Embora os modelos de difusão destilados permitam inferência mais rápida, suas capacidades de edição permanecem limitadas, principalmente devido à baixa qualidade de inversão. Inversão e reconstrução de alta fidelidade são essenciais para a edição precisa de imagens, pois preservam a integridade estrutural e semântica da imagem original. Neste trabalho, propomos uma nova estrutura que aprimora a inversão de imagens utilizando modelos de consistência, permitindo edição de alta qualidade em apenas quatro passos. Nosso método introduz uma estratégia de otimização de consistência cíclica que melhora significativamente a precisão da reconstrução e permite uma troca controlável entre editabilidade e preservação de conteúdo. Alcançamos desempenho de ponta em várias tarefas e conjuntos de dados de edição de imagens, demonstrando que nosso método iguala ou supera modelos de difusão de passos completos, sendo substancialmente mais eficiente. O código do nosso método está disponível no GitHub em https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.