Break-A-Scene: Извлечение множества концепций из одного изображения
Break-A-Scene: Extracting Multiple Concepts from a Single Image
May 25, 2023
Авторы: Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski
cs.AI
Аннотация
Персонализация моделей генерации изображений по тексту направлена на внедрение пользовательского концепта в модель, что позволяет синтезировать его в различных контекстах. Однако современные методы в основном сосредоточены на изучении одного концепта из нескольких изображений с вариациями фона и поз, и испытывают трудности при адаптации к другим сценариям. В данной работе мы представляем задачу декомпозиции текстовой сцены: для одного изображения сцены, которое может содержать несколько концептов, мы стремимся извлечь отдельный текстовый токен для каждого концепта, обеспечивая детализированный контроль над генерируемыми сценами. Для этого мы предлагаем дополнять входное изображение масками, указывающими на наличие целевых концептов. Эти маски могут быть предоставлены пользователем или автоматически сгенерированы предварительно обученной моделью сегментации. Затем мы представляем новый двухэтапный процесс кастомизации, который оптимизирует набор специализированных текстовых вложений (дескрипторов), а также веса модели, достигая тонкого баланса между точным воспроизведением концептов и предотвращением переобучения. Мы используем маскированную диффузионную функцию потерь, чтобы позволить дескрипторам генерировать свои назначенные концепты, дополняя её новой функцией потерь на картах кросс-внимания для предотвращения переплетения. Также мы вводим стратегию обучения union-sampling, направленную на улучшение способности комбинирования нескольких концептов в генерируемых изображениях. Мы используем несколько автоматических метрик для количественного сравнения нашего метода с несколькими базовыми подходами и дополнительно подтверждаем результаты с помощью пользовательского исследования. Наконец, мы демонстрируем несколько приложений нашего метода. Страница проекта доступна по адресу: https://omriavrahami.com/break-a-scene/
English
Text-to-image model personalization aims to introduce a user-provided concept
to the model, allowing its synthesis in diverse contexts. However, current
methods primarily focus on the case of learning a single concept from multiple
images with variations in backgrounds and poses, and struggle when adapted to a
different scenario. In this work, we introduce the task of textual scene
decomposition: given a single image of a scene that may contain several
concepts, we aim to extract a distinct text token for each concept, enabling
fine-grained control over the generated scenes. To this end, we propose
augmenting the input image with masks that indicate the presence of target
concepts. These masks can be provided by the user or generated automatically by
a pre-trained segmentation model. We then present a novel two-phase
customization process that optimizes a set of dedicated textual embeddings
(handles), as well as the model weights, striking a delicate balance between
accurately capturing the concepts and avoiding overfitting. We employ a masked
diffusion loss to enable handles to generate their assigned concepts,
complemented by a novel loss on cross-attention maps to prevent entanglement.
We also introduce union-sampling, a training strategy aimed to improve the
ability of combining multiple concepts in generated images. We use several
automatic metrics to quantitatively compare our method against several
baselines, and further affirm the results using a user study. Finally, we
showcase several applications of our method. Project page is available at:
https://omriavrahami.com/break-a-scene/