DragDiffusion: Aproveitando Modelos de Difusão para Edição Interativa de Imagens Baseada em Pontos
DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing
June 26, 2023
Autores: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI
Resumo
A edição precisa e controlável de imagens é uma tarefa desafiadora que tem atraído atenção significativa. Recentemente, o DragGAN possibilitou uma estrutura interativa de edição de imagens baseada em pontos e alcançou resultados impressionantes com precisão em nível de pixel. No entanto, como esse método é baseado em redes adversariais generativas (GANs), sua generalidade é limitada pela capacidade dos modelos GAN pré-treinados. Neste trabalho, estendemos essa estrutura de edição para modelos de difusão e propomos o DragDiffusion. Ao aproveitar modelos de difusão pré-treinados em grande escala, melhoramos consideravelmente a aplicabilidade da edição interativa baseada em pontos em cenários do mundo real. Enquanto a maioria dos métodos existentes de edição de imagens baseados em difusão trabalha com embeddings de texto, o DragDiffusion otimiza o latente de difusão para alcançar controle espacial preciso. Embora os modelos de difusão gerem imagens de maneira iterativa, mostramos empiricamente que otimizar o latente de difusão em um único passo é suficiente para gerar resultados coerentes, permitindo que o DragDiffusion complete edições de alta qualidade de forma eficiente. Experimentos extensos em uma ampla gama de casos desafiadores (por exemplo, múltiplos objetos, diversas categorias de objetos, vários estilos, etc.) demonstram a versatilidade e generalidade do DragDiffusion.
English
Precise and controllable image editing is a challenging task that has
attracted significant attention. Recently, DragGAN enables an interactive
point-based image editing framework and achieves impressive editing results
with pixel-level precision. However, since this method is based on generative
adversarial networks (GAN), its generality is upper-bounded by the capacity of
the pre-trained GAN models. In this work, we extend such an editing framework
to diffusion models and propose DragDiffusion. By leveraging large-scale
pretrained diffusion models, we greatly improve the applicability of
interactive point-based editing in real world scenarios. While most existing
diffusion-based image editing methods work on text embeddings, DragDiffusion
optimizes the diffusion latent to achieve precise spatial control. Although
diffusion models generate images in an iterative manner, we empirically show
that optimizing diffusion latent at one single step suffices to generate
coherent results, enabling DragDiffusion to complete high-quality editing
efficiently. Extensive experiments across a wide range of challenging cases
(e.g., multi-objects, diverse object categories, various styles, etc.)
demonstrate the versatility and generality of DragDiffusion.