ChatPaper.aiChatPaper

Custom-Edit: Редактирование изображений на основе текста с использованием специализированных моделей диффузии

Custom-Edit: Text-Guided Image Editing with Customized Diffusion Models

May 25, 2023
Авторы: Jooyoung Choi, Yunjey Choi, Yunji Kim, Junho Kim, Sungroh Yoon
cs.AI

Аннотация

Модели диффузии для генерации изображений по тексту способны создавать разнообразные изображения высокой четкости на основе текстовых запросов, предоставленных пользователем. Недавние исследования расширили возможности этих моделей, добавив поддержку редактирования изображений с использованием текстовых указаний. Хотя текстовые указания представляют собой интуитивно понятный интерфейс для пользователей, они часто не обеспечивают точной передачи концепции, задуманной пользователем. Для решения этой проблемы мы предлагаем метод Custom-Edit, в котором мы (i) адаптируем модель диффузии с использованием нескольких эталонных изображений, а затем (ii) выполняем редактирование с текстовыми указаниями. Наше ключевое открытие заключается в том, что адаптация только языково-релевантных параметров с расширенными запросами значительно улучшает сходство с эталоном, сохраняя при этом сходство с исходным изображением. Кроме того, мы предоставляем наш подход для каждого этапа адаптации и редактирования. Мы сравниваем популярные методы адаптации и подтверждаем наши выводы на двух методах редактирования с использованием различных наборов данных.
English
Text-to-image diffusion models can generate diverse, high-fidelity images based on user-provided text prompts. Recent research has extended these models to support text-guided image editing. While text guidance is an intuitive editing interface for users, it often fails to ensure the precise concept conveyed by users. To address this issue, we propose Custom-Edit, in which we (i) customize a diffusion model with a few reference images and then (ii) perform text-guided editing. Our key discovery is that customizing only language-relevant parameters with augmented prompts improves reference similarity significantly while maintaining source similarity. Moreover, we provide our recipe for each customization and editing process. We compare popular customization methods and validate our findings on two editing methods using various datasets.
PDF30December 15, 2024