ChatPaper.aiChatPaper

DragDiffusion: Nutzung von Diffusionsmodellen für interaktive punktbasierte Bildbearbeitung

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing

June 26, 2023
Autoren: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI

Zusammenfassung

Präzise und kontrollierbare Bildbearbeitung ist eine anspruchsvolle Aufgabe, die erhebliche Aufmerksamkeit auf sich gezogen hat. Kürzlich ermöglicht DragGAN ein interaktives, punktbasiertes Bildbearbeitungsframework und erzielt beeindruckende Bearbeitungsergebnisse mit Pixelgenauigkeit. Da diese Methode jedoch auf Generative Adversarial Networks (GAN) basiert, ist ihre Allgemeingültigkeit durch die Kapazität der vortrainierten GAN-Modelle begrenzt. In dieser Arbeit erweitern wir ein solches Bearbeitungsframework auf Diffusionsmodelle und schlagen DragDiffusion vor. Durch die Nutzung groß angelegter vortrainierter Diffusionsmodelle verbessern wir die Anwendbarkeit der interaktiven, punktbasierten Bearbeitung in realen Szenarien erheblich. Während die meisten bestehenden diffusionsbasierten Bildbearbeitungsmethoden auf Texteinbettungen arbeiten, optimiert DragDiffusion das Diffusionslatent, um präzise räumliche Kontrolle zu erreichen. Obwohl Diffusionsmodelle Bilder iterativ erzeugen, zeigen wir empirisch, dass die Optimierung des Diffusionslatents in einem einzigen Schritt ausreicht, um kohärente Ergebnisse zu erzeugen, wodurch DragDiffusion hochwertige Bearbeitungen effizient durchführen kann. Umfangreiche Experimente in einer Vielzahl anspruchsvoller Fälle (z. B. mehrere Objekte, diverse Objektkategorien, verschiedene Stile usw.) demonstrieren die Vielseitigkeit und Allgemeingültigkeit von DragDiffusion.
English
Precise and controllable image editing is a challenging task that has attracted significant attention. Recently, DragGAN enables an interactive point-based image editing framework and achieves impressive editing results with pixel-level precision. However, since this method is based on generative adversarial networks (GAN), its generality is upper-bounded by the capacity of the pre-trained GAN models. In this work, we extend such an editing framework to diffusion models and propose DragDiffusion. By leveraging large-scale pretrained diffusion models, we greatly improve the applicability of interactive point-based editing in real world scenarios. While most existing diffusion-based image editing methods work on text embeddings, DragDiffusion optimizes the diffusion latent to achieve precise spatial control. Although diffusion models generate images in an iterative manner, we empirically show that optimizing diffusion latent at one single step suffices to generate coherent results, enabling DragDiffusion to complete high-quality editing efficiently. Extensive experiments across a wide range of challenging cases (e.g., multi-objects, diverse object categories, various styles, etc.) demonstrate the versatility and generality of DragDiffusion.
PDF205December 15, 2024