ChatPaper.aiChatPaper

DragDiffusion: Sfruttare i Modelli di Diffusione per l'Editing Interattivo di Immagini Basato su Punti

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing

June 26, 2023
Autori: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI

Abstract

La modifica precisa e controllabile delle immagini è un compito impegnativo che ha attirato una significativa attenzione. Recentemente, DragGAN ha introdotto un framework interattivo di modifica delle immagini basato su punti, ottenendo risultati impressionanti con precisione a livello di pixel. Tuttavia, poiché questo metodo si basa su reti generative avversarie (GAN), la sua generalità è limitata dalla capacità dei modelli GAN pre-addestrati. In questo lavoro, estendiamo tale framework di modifica ai modelli di diffusione e proponiamo DragDiffusion. Sfruttando modelli di diffusione pre-addestrati su larga scala, miglioriamo notevolmente l'applicabilità della modifica interattiva basata su punti in scenari reali. Mentre la maggior parte dei metodi esistenti di modifica delle immagini basati su diffusione lavora sugli embedding testuali, DragDiffusion ottimizza il latente di diffusione per ottenere un controllo spaziale preciso. Sebbene i modelli di diffusione generino immagini in modo iterativo, dimostriamo empiricamente che l'ottimizzazione del latente di diffusione in un singolo passaggio è sufficiente per generare risultati coerenti, consentendo a DragDiffusion di completare modifiche di alta qualità in modo efficiente. Esperimenti estesi su un'ampia gamma di casi complessi (ad esempio, multi-oggetti, diverse categorie di oggetti, vari stili, ecc.) dimostrano la versatilità e la generalità di DragDiffusion.
English
Precise and controllable image editing is a challenging task that has attracted significant attention. Recently, DragGAN enables an interactive point-based image editing framework and achieves impressive editing results with pixel-level precision. However, since this method is based on generative adversarial networks (GAN), its generality is upper-bounded by the capacity of the pre-trained GAN models. In this work, we extend such an editing framework to diffusion models and propose DragDiffusion. By leveraging large-scale pretrained diffusion models, we greatly improve the applicability of interactive point-based editing in real world scenarios. While most existing diffusion-based image editing methods work on text embeddings, DragDiffusion optimizes the diffusion latent to achieve precise spatial control. Although diffusion models generate images in an iterative manner, we empirically show that optimizing diffusion latent at one single step suffices to generate coherent results, enabling DragDiffusion to complete high-quality editing efficiently. Extensive experiments across a wide range of challenging cases (e.g., multi-objects, diverse object categories, various styles, etc.) demonstrate the versatility and generality of DragDiffusion.
PDF215March 23, 2026