ChatPaper.aiChatPaper

DragDiffusion : Exploitation des modèles de diffusion pour l'édition interactive d'images basée sur des points

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing

June 26, 2023
Auteurs: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI

Résumé

L'édition d'images précise et contrôlable est une tâche complexe qui a suscité une attention considérable. Récemment, DragGAN a introduit un cadre interactif d'édition d'images basé sur des points, obtenant des résultats impressionnants avec une précision au niveau du pixel. Cependant, puisque cette méthode repose sur des réseaux antagonistes génératifs (GAN), sa généralité est limitée par la capacité des modèles GAN pré-entraînés. Dans ce travail, nous étendons ce cadre d'édition aux modèles de diffusion et proposons DragDiffusion. En exploitant des modèles de diffusion pré-entraînés à grande échelle, nous améliorons considérablement l'applicabilité de l'édition interactive basée sur des points dans des scénarios réels. Alors que la plupart des méthodes existantes d'édition d'images basées sur la diffusion opèrent sur des embeddings textuels, DragDiffusion optimise le latent de diffusion pour obtenir un contrôle spatial précis. Bien que les modèles de diffusion génèrent des images de manière itérative, nous montrons empiriquement qu'optimiser le latent de diffusion à une seule étape suffit à produire des résultats cohérents, permettant à DragDiffusion de réaliser des éditions de haute qualité de manière efficace. Des expériences approfondies sur une large gamme de cas complexes (par exemple, multi-objets, catégories d'objets variées, styles divers, etc.) démontrent la polyvalence et la généralité de DragDiffusion.
English
Precise and controllable image editing is a challenging task that has attracted significant attention. Recently, DragGAN enables an interactive point-based image editing framework and achieves impressive editing results with pixel-level precision. However, since this method is based on generative adversarial networks (GAN), its generality is upper-bounded by the capacity of the pre-trained GAN models. In this work, we extend such an editing framework to diffusion models and propose DragDiffusion. By leveraging large-scale pretrained diffusion models, we greatly improve the applicability of interactive point-based editing in real world scenarios. While most existing diffusion-based image editing methods work on text embeddings, DragDiffusion optimizes the diffusion latent to achieve precise spatial control. Although diffusion models generate images in an iterative manner, we empirically show that optimizing diffusion latent at one single step suffices to generate coherent results, enabling DragDiffusion to complete high-quality editing efficiently. Extensive experiments across a wide range of challenging cases (e.g., multi-objects, diverse object categories, various styles, etc.) demonstrate the versatility and generality of DragDiffusion.
PDF205December 15, 2024