Улучшение сохранения деталей для персонализированной генерации изображений из текста: подход без регуляризации
Enhancing Detail Preservation for Customized Text-to-Image Generation: A Regularization-Free Approach
May 23, 2023
Авторы: Yufan Zhou, Ruiyi Zhang, Tong Sun, Jinhui Xu
cs.AI
Аннотация
Современные модели генерации изображений по текстовому описанию продемонстрировали впечатляющую способность создавать изображения, соответствующие тексту, с высокой точностью. Однако генерация изображений новых концепций, предоставленных пользователем в виде входного изображения, остается сложной задачей. Для решения этой проблемы исследователи изучают различные методы адаптации предварительно обученных моделей генерации изображений по тексту. В настоящее время большинство существующих методов адаптации таких моделей предполагают использование техник регуляризации для предотвращения переобучения. Хотя регуляризация облегчает задачу адаптации и способствует успешному созданию контента в соответствии с текстовым описанием, она может ограничивать возможности модели, приводя к потере детальной информации и ухудшению производительности. В данной работе мы предлагаем новый фреймворк для персонализированной генерации изображений по тексту без использования регуляризации. В частности, наш фреймворк включает в себя сеть-кодировщик и новый метод сэмплирования, который позволяет решить проблему переобучения без применения регуляризации. С помощью предложенного фреймворка мы можем адаптировать крупномасштабную модель генерации изображений по тексту менее чем за полминуты на одном графическом процессоре, используя только одно изображение, предоставленное пользователем. Эксперименты показывают, что наш фреймворк превосходит существующие методы и сохраняет более детализированные элементы.
English
Recent text-to-image generation models have demonstrated impressive
capability of generating text-aligned images with high fidelity. However,
generating images of novel concept provided by the user input image is still a
challenging task. To address this problem, researchers have been exploring
various methods for customizing pre-trained text-to-image generation models.
Currently, most existing methods for customizing pre-trained text-to-image
generation models involve the use of regularization techniques to prevent
over-fitting. While regularization will ease the challenge of customization and
leads to successful content creation with respect to text guidance, it may
restrict the model capability, resulting in the loss of detailed information
and inferior performance. In this work, we propose a novel framework for
customized text-to-image generation without the use of regularization.
Specifically, our proposed framework consists of an encoder network and a novel
sampling method which can tackle the over-fitting problem without the use of
regularization. With the proposed framework, we are able to customize a
large-scale text-to-image generation model within half a minute on single GPU,
with only one image provided by the user. We demonstrate in experiments that
our proposed framework outperforms existing methods, and preserves more
fine-grained details.