ChatPaper.aiChatPaper

Генерировать что угодно, где угодно, в любой сцене

Generate Anything Anywhere in Any Scene

June 29, 2023
Авторы: Yuheng Li, Haotian Liu, Yangming Wen, Yong Jae Lee
cs.AI

Аннотация

Модели диффузии для генерации изображений из текста привлекают значительный интерес благодаря их широкой применимости в различных областях. Однако сохраняются сложности в создании управляемых моделей для персонализированной генерации объектов. В данной работе мы сначала выявляем проблемы запутанности в существующих персонализированных генеративных моделях, а затем предлагаем простую и эффективную стратегию обучения с использованием аугментации данных, которая направляет модель диффузии на фокусировку исключительно на идентичности объекта. Путем внедрения слоев адаптера plug-and-play из предварительно обученной управляемой модели диффузии, наша модель приобретает способность контролировать местоположение и размер каждого генерируемого персонализированного объекта. В процессе вывода мы предлагаем технику регионально-направленной выборки для сохранения качества и достоверности генерируемых изображений. Наш метод обеспечивает сопоставимую или превосходящую достоверность для персонализированных объектов, создавая надежную, универсальную и управляемую модель диффузии для генерации изображений из текста, способную создавать реалистичные и персонализированные изображения. Наш подход демонстрирует значительный потенциал для различных приложений, таких как искусство, развлечения и дизайн рекламы.
English
Text-to-image diffusion models have attracted considerable interest due to their wide applicability across diverse fields. However, challenges persist in creating controllable models for personalized object generation. In this paper, we first identify the entanglement issues in existing personalized generative models, and then propose a straightforward and efficient data augmentation training strategy that guides the diffusion model to focus solely on object identity. By inserting the plug-and-play adapter layers from a pre-trained controllable diffusion model, our model obtains the ability to control the location and size of each generated personalized object. During inference, we propose a regionally-guided sampling technique to maintain the quality and fidelity of the generated images. Our method achieves comparable or superior fidelity for personalized objects, yielding a robust, versatile, and controllable text-to-image diffusion model that is capable of generating realistic and personalized images. Our approach demonstrates significant potential for various applications, such as those in art, entertainment, and advertising design.
PDF223December 15, 2024