ChatPaper.aiChatPaper

DragDiffusion: 拡散モデルを活用したインタラクティブなポイントベース画像編集

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing

June 26, 2023
著者: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI

要旨

精密で制御可能な画像編集は、重要な注目を集めている挑戦的な課題である。最近、DragGANはインタラクティブなポイントベースの画像編集フレームワークを可能にし、ピクセルレベルの精度で印象的な編集結果を達成している。しかし、この手法は生成敵対ネットワーク(GAN)に基づいているため、その汎用性は事前学習済みGANモデルの能力によって制限されている。本研究では、このような編集フレームワークを拡散モデルに拡張し、DragDiffusionを提案する。大規模な事前学習済み拡散モデルを活用することで、実世界のシナリオにおけるインタラクティブなポイントベース編集の適用性を大幅に向上させる。既存の拡散ベースの画像編集手法の多くがテキスト埋め込みに基づいて動作するのに対し、DragDiffusionは拡散潜在を最適化することで、精密な空間制御を実現する。拡散モデルは反復的に画像を生成するが、単一のステップで拡散潜在を最適化するだけで一貫した結果を生成できることを実証的に示し、DragDiffusionが高品質な編集を効率的に完了できることを明らかにする。多様な挑戦的なケース(例:複数オブジェクト、多様なオブジェクトカテゴリ、様々なスタイルなど)にわたる広範な実験を通じて、DragDiffusionの汎用性と一般性を実証する。
English
Precise and controllable image editing is a challenging task that has attracted significant attention. Recently, DragGAN enables an interactive point-based image editing framework and achieves impressive editing results with pixel-level precision. However, since this method is based on generative adversarial networks (GAN), its generality is upper-bounded by the capacity of the pre-trained GAN models. In this work, we extend such an editing framework to diffusion models and propose DragDiffusion. By leveraging large-scale pretrained diffusion models, we greatly improve the applicability of interactive point-based editing in real world scenarios. While most existing diffusion-based image editing methods work on text embeddings, DragDiffusion optimizes the diffusion latent to achieve precise spatial control. Although diffusion models generate images in an iterative manner, we empirically show that optimizing diffusion latent at one single step suffices to generate coherent results, enabling DragDiffusion to complete high-quality editing efficiently. Extensive experiments across a wide range of challenging cases (e.g., multi-objects, diverse object categories, various styles, etc.) demonstrate the versatility and generality of DragDiffusion.
PDF205December 15, 2024