ChatPaper.aiChatPaper

DragDiffusion: Использование моделей диффузии для интерактивного редактирования изображений на основе точек

DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing

June 26, 2023
Авторы: Yujun Shi, Chuhui Xue, Jiachun Pan, Wenqing Zhang, Vincent Y. F. Tan, Song Bai
cs.AI

Аннотация

Точное и контролируемое редактирование изображений является сложной задачей, которая привлекает значительное внимание. Недавно метод DragGAN представил интерактивную платформу для редактирования изображений на основе точек и достиг впечатляющих результатов с точностью на уровне пикселей. Однако, поскольку этот метод основан на генеративно-состязательных сетях (GAN), его универсальность ограничена возможностями предварительно обученных моделей GAN. В данной работе мы расширяем такой подход редактирования на диффузионные модели и предлагаем DragDiffusion. Используя крупномасштабные предобученные диффузионные модели, мы значительно повышаем применимость интерактивного редактирования на основе точек в реальных сценариях. В то время как большинство существующих методов редактирования изображений на основе диффузии работают с текстовыми эмбеддингами, DragDiffusion оптимизирует латентное пространство диффузии для достижения точного пространственного контроля. Хотя диффузионные модели генерируют изображения итеративно, мы эмпирически показываем, что оптимизация латентного пространства на одном шаге достаточна для получения согласованных результатов, что позволяет DragDiffusion выполнять высококачественное редактирование эффективно. Многочисленные эксперименты в широком спектре сложных случаев (например, множественные объекты, разнообразные категории объектов, различные стили и т.д.) демонстрируют универсальность и общность DragDiffusion.
English
Precise and controllable image editing is a challenging task that has attracted significant attention. Recently, DragGAN enables an interactive point-based image editing framework and achieves impressive editing results with pixel-level precision. However, since this method is based on generative adversarial networks (GAN), its generality is upper-bounded by the capacity of the pre-trained GAN models. In this work, we extend such an editing framework to diffusion models and propose DragDiffusion. By leveraging large-scale pretrained diffusion models, we greatly improve the applicability of interactive point-based editing in real world scenarios. While most existing diffusion-based image editing methods work on text embeddings, DragDiffusion optimizes the diffusion latent to achieve precise spatial control. Although diffusion models generate images in an iterative manner, we empirically show that optimizing diffusion latent at one single step suffices to generate coherent results, enabling DragDiffusion to complete high-quality editing efficiently. Extensive experiments across a wide range of challenging cases (e.g., multi-objects, diverse object categories, various styles, etc.) demonstrate the versatility and generality of DragDiffusion.
PDF205December 15, 2024