ChatPaper.aiChatPaper

Inverso-e-Editar: Edição de Imagens Eficaz e Rápida por Modelos de Consistência de Ciclo

Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models

June 23, 2025
Autores: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI

Resumo

Os avanços recentes na edição de imagens com modelos de difusão têm alcançado resultados impressionantes, oferecendo controle refinado sobre o processo de geração. No entanto, esses métodos são computacionalmente intensivos devido à sua natureza iterativa. Embora os modelos de difusão destilados permitam inferência mais rápida, suas capacidades de edição permanecem limitadas, principalmente devido à baixa qualidade de inversão. Inversão e reconstrução de alta fidelidade são essenciais para a edição precisa de imagens, pois preservam a integridade estrutural e semântica da imagem original. Neste trabalho, propomos uma nova estrutura que aprimora a inversão de imagens utilizando modelos de consistência, permitindo edição de alta qualidade em apenas quatro passos. Nosso método introduz uma estratégia de otimização de consistência cíclica que melhora significativamente a precisão da reconstrução e permite uma troca controlável entre editabilidade e preservação de conteúdo. Alcançamos desempenho de ponta em várias tarefas e conjuntos de dados de edição de imagens, demonstrando que nosso método iguala ou supera modelos de difusão de passos completos, sendo substancialmente mais eficiente. O código do nosso método está disponível no GitHub em https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved impressive results, offering fine-grained control over the generation process. However, these methods are computationally intensive because of their iterative nature. While distilled diffusion models enable faster inference, their editing capabilities remain limited, primarily because of poor inversion quality. High-fidelity inversion and reconstruction are essential for precise image editing, as they preserve the structural and semantic integrity of the source image. In this work, we propose a novel framework that enhances image inversion using consistency models, enabling high-quality editing in just four steps. Our method introduces a cycle-consistency optimization strategy that significantly improves reconstruction accuracy and enables a controllable trade-off between editability and content preservation. We achieve state-of-the-art performance across various image editing tasks and datasets, demonstrating that our method matches or surpasses full-step diffusion models while being substantially more efficient. The code of our method is available on GitHub at https://github.com/ControlGenAI/Inverse-and-Edit.
PDF431June 26, 2025