ChatPaper.aiChatPaper

StyleDrop: Генерация изображений из текста в любом стиле

StyleDrop: Text-to-Image Generation in Any Style

June 1, 2023
Авторы: Kihyuk Sohn, Nataniel Ruiz, Kimin Lee, Daniel Castro Chin, Irina Blok, Huiwen Chang, Jarred Barber, Lu Jiang, Glenn Entis, Yuanzhen Li, Yuan Hao, Irfan Essa, Michael Rubinstein, Dilip Krishnan
cs.AI

Аннотация

Предварительно обученные крупные модели для генерации изображений по тексту создают впечатляющие изображения при правильном использовании текстовых запросов. Однако неоднозначности, присущие естественному языку, и эффекты выхода за пределы распределения данных затрудняют синтез стилей изображений, которые используют определенный дизайн, текстуру или материал. В данной статье мы представляем StyleDrop — метод, который позволяет синтезировать изображения, точно следующие определенному стилю, с использованием модели генерации изображений по тексту. Предложенный метод чрезвычайно универсален и захватывает тонкости и детали стиля, предоставленного пользователем, такие как цветовые схемы, тени, дизайнерские паттерны, а также локальные и глобальные эффекты. Он эффективно изучает новый стиль, тонко настраивая очень небольшое количество обучаемых параметров (менее 1% от общего числа параметров модели) и улучшая качество за счет итеративного обучения с использованием обратной связи от человека или автоматизированных систем. Более того, StyleDrop способен выдавать впечатляющие результаты даже в случае, когда пользователь предоставляет всего одно изображение, задающее желаемый стиль. Обширное исследование показывает, что для задачи настройки стиля в моделях генерации изображений по тексту, StyleDrop, реализованный на основе Muse, убедительно превосходит другие методы, включая DreamBooth и текстовую инверсию на Imagen или Stable Diffusion. Дополнительные результаты доступны на нашем проектом сайте: https://styledrop.github.io.
English
Pre-trained large text-to-image models synthesize impressive images with an appropriate use of text prompts. However, ambiguities inherent in natural language and out-of-distribution effects make it hard to synthesize image styles, that leverage a specific design pattern, texture or material. In this paper, we introduce StyleDrop, a method that enables the synthesis of images that faithfully follow a specific style using a text-to-image model. The proposed method is extremely versatile and captures nuances and details of a user-provided style, such as color schemes, shading, design patterns, and local and global effects. It efficiently learns a new style by fine-tuning very few trainable parameters (less than 1% of total model parameters) and improving the quality via iterative training with either human or automated feedback. Better yet, StyleDrop is able to deliver impressive results even when the user supplies only a single image that specifies the desired style. An extensive study shows that, for the task of style tuning text-to-image models, StyleDrop implemented on Muse convincingly outperforms other methods, including DreamBooth and textual inversion on Imagen or Stable Diffusion. More results are available at our project website: https://styledrop.github.io
PDF73December 15, 2024