ChatPaper.aiChatPaper

DragDiffusion: Benutting van Diffusiemodellen voor Interactieve Puntgebaseerde Afbeeldingsbewerking

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing

June 26, 2023
Auteurs: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI

Samenvatting

Precies en controleerbaar beeldbewerken is een uitdagende taak die aanzienlijke aandacht heeft getrokken. Recentelijk heeft DragGAN een interactief, op punten gebaseerd beeldbewerkingsraamwerk mogelijk gemaakt en indrukwekkende bewerkingsresultaten bereikt met pixelprecisie. Omdat deze methode echter gebaseerd is op generatieve adversariële netwerken (GAN), wordt de algemeenheid ervan beperkt door de capaciteit van de vooraf getrainde GAN-modellen. In dit werk breiden we een dergelijk bewerkingsraamwerk uit naar diffusiemodellen en introduceren we DragDiffusion. Door gebruik te maken van grootschalige, vooraf getrainde diffusiemodellen, verbeteren we de toepasbaarheid van interactieve, op punten gebaseerde bewerking aanzienlijk in realistische scenario's. Terwijl de meeste bestaande op diffusie gebaseerde beeldbewerkingsmethoden werken met tekstembeddingen, optimaliseert DragDiffusion de diffusielatentie om precieze ruimtelijke controle te bereiken. Hoewel diffusiemodellen afbeeldingen op een iteratieve manier genereren, tonen we empirisch aan dat het optimaliseren van de diffusielatentie in één enkele stap voldoende is om samenhangende resultaten te genereren, waardoor DragDiffusion hoogwaardige bewerkingen efficiënt kan uitvoeren. Uitgebreide experimenten over een breed scala aan uitdagende gevallen (bijv. meerdere objecten, diverse objectcategorieën, verschillende stijlen, enz.) demonstreren de veelzijdigheid en algemeenheid van DragDiffusion.
English
Precise and controllable image editing is a challenging task that has attracted significant attention. Recently, DragGAN enables an interactive point-based image editing framework and achieves impressive editing results with pixel-level precision. However, since this method is based on generative adversarial networks (GAN), its generality is upper-bounded by the capacity of the pre-trained GAN models. In this work, we extend such an editing framework to diffusion models and propose DragDiffusion. By leveraging large-scale pretrained diffusion models, we greatly improve the applicability of interactive point-based editing in real world scenarios. While most existing diffusion-based image editing methods work on text embeddings, DragDiffusion optimizes the diffusion latent to achieve precise spatial control. Although diffusion models generate images in an iterative manner, we empirically show that optimizing diffusion latent at one single step suffices to generate coherent results, enabling DragDiffusion to complete high-quality editing efficiently. Extensive experiments across a wide range of challenging cases (e.g., multi-objects, diverse object categories, various styles, etc.) demonstrate the versatility and generality of DragDiffusion.
PDF205December 15, 2024