逆変換と編集:サイクル一貫性による効果的かつ高速な画像編集モデル
Inverse-and-Edit: Effective and Fast Image Editing by Cycle Consistency Models
June 23, 2025
著者: Ilia Beletskii, Andrey Kuznetsov, Aibek Alanov
cs.AI
要旨
拡散モデルを用いた画像編集の最近の進展は、生成プロセスに対するきめ細かい制御を実現し、印象的な結果をもたらしています。しかし、これらの手法は反復的な性質のため計算コストが高いという課題があります。蒸留された拡散モデルは推論を高速化しますが、逆変換の品質が低いため編集能力が限られています。高精度な逆変換と再構築は、元画像の構造的および意味的な整合性を保つために、精密な画像編集において不可欠です。本研究では、一貫性モデルを用いて画像逆変換を強化し、わずか4ステップで高品質な編集を可能にする新しいフレームワークを提案します。本手法では、再構築精度を大幅に向上させ、編集可能性と内容保存の間の制御可能なトレードオフを実現するサイクル一貫性最適化戦略を導入しています。我々は、様々な画像編集タスクとデータセットにおいて最先端の性能を達成し、本手法が完全ステップの拡散モデルに匹敵またはそれを上回りながら、大幅に効率的であることを実証しています。本手法のコードはGitHub(https://github.com/ControlGenAI/Inverse-and-Edit)で公開されています。
English
Recent advances in image editing with diffusion models have achieved
impressive results, offering fine-grained control over the generation process.
However, these methods are computationally intensive because of their iterative
nature. While distilled diffusion models enable faster inference, their editing
capabilities remain limited, primarily because of poor inversion quality.
High-fidelity inversion and reconstruction are essential for precise image
editing, as they preserve the structural and semantic integrity of the source
image. In this work, we propose a novel framework that enhances image inversion
using consistency models, enabling high-quality editing in just four steps. Our
method introduces a cycle-consistency optimization strategy that significantly
improves reconstruction accuracy and enables a controllable trade-off between
editability and content preservation. We achieve state-of-the-art performance
across various image editing tasks and datasets, demonstrating that our method
matches or surpasses full-step diffusion models while being substantially more
efficient. The code of our method is available on GitHub at
https://github.com/ControlGenAI/Inverse-and-Edit.