Инвертирование и редактирование: эффективное и быстрое редактирование изображений с помощью моделей цикличной согласованности
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
Авторы: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
Аннотация
Последние достижения в области редактирования изображений с использованием диффузионных моделей позволили добиться впечатляющих результатов, обеспечивая детализированный контроль над процессом генерации. Однако эти методы требуют значительных вычислительных ресурсов из-за их итерационной природы. Хотя дистиллированные диффузионные модели позволяют ускорить вывод, их возможности редактирования остаются ограниченными, главным образом из-за низкого качества инверсии. Высококачественная инверсия и реконструкция необходимы для точного редактирования изображений, так как они сохраняют структурную и семантическую целостность исходного изображения. В данной работе мы предлагаем новый подход, который улучшает инверсию изображений с использованием моделей согласованности, позволяя выполнять высококачественное редактирование всего за четыре шага. Наш метод включает стратегию оптимизации цикличной согласованности, которая значительно повышает точность реконструкции и обеспечивает контролируемый баланс между возможностью редактирования и сохранением содержимого. Мы достигаем наилучших результатов в различных задачах редактирования изображений и наборах данных, демонстрируя, что наш метод сопоставим или превосходит полномасштабные диффузионные модели, при этом существенно более эффективен. Код нашего метода доступен на GitHub по адресу https://github.com/ControlGenAI/Inverse-and-Edit.
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.