Break-A-Scene: Extraindo Múltiplos Conceitos de uma Única Imagem
Break-A-Scene: Extracting Multiple Concepts from a Single Image
May 25, 2023
Autores: Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski
cs.AI
Resumo
A personalização de modelos de texto para imagem visa introduzir um conceito fornecido pelo usuário ao modelo, permitindo sua síntese em diversos contextos. No entanto, os métodos atuais concentram-se principalmente no caso de aprender um único conceito a partir de múltiplas imagens com variações de fundos e poses, e enfrentam dificuldades quando adaptados a um cenário diferente. Neste trabalho, introduzimos a tarefa de decomposição textual de cenas: dada uma única imagem de uma cena que pode conter vários conceitos, nosso objetivo é extrair um token de texto distinto para cada conceito, permitindo um controle refinado sobre as cenas geradas. Para isso, propomos aumentar a imagem de entrada com máscaras que indicam a presença de conceitos-alvo. Essas máscaras podem ser fornecidas pelo usuário ou geradas automaticamente por um modelo de segmentação pré-treinado. Em seguida, apresentamos um novo processo de personalização em duas fases que otimiza um conjunto de embeddings textuais dedicados (handles), bem como os pesos do modelo, alcançando um equilíbrio delicado entre capturar os conceitos com precisão e evitar o overfitting. Empregamos uma perda de difusão mascarada para permitir que os handles gerem seus conceitos atribuídos, complementada por uma nova perda em mapas de atenção cruzada para evitar o entrelaçamento. Também introduzimos o union-sampling, uma estratégia de treinamento que visa melhorar a capacidade de combinar múltiplos conceitos em imagens geradas. Utilizamos várias métricas automáticas para comparar quantitativamente nosso método com várias baselines, e confirmamos ainda mais os resultados por meio de um estudo com usuários. Por fim, apresentamos várias aplicações do nosso método. A página do projeto está disponível em: https://omriavrahami.com/break-a-scene/
English
Text-to-image model personalization aims to introduce a user-provided concept
to the model, allowing its synthesis in diverse contexts. However, current
methods primarily focus on the case of learning a single concept from multiple
images with variations in backgrounds and poses, and struggle when adapted to a
different scenario. In this work, we introduce the task of textual scene
decomposition: given a single image of a scene that may contain several
concepts, we aim to extract a distinct text token for each concept, enabling
fine-grained control over the generated scenes. To this end, we propose
augmenting the input image with masks that indicate the presence of target
concepts. These masks can be provided by the user or generated automatically by
a pre-trained segmentation model. We then present a novel two-phase
customization process that optimizes a set of dedicated textual embeddings
(handles), as well as the model weights, striking a delicate balance between
accurately capturing the concepts and avoiding overfitting. We employ a masked
diffusion loss to enable handles to generate their assigned concepts,
complemented by a novel loss on cross-attention maps to prevent entanglement.
We also introduce union-sampling, a training strategy aimed to improve the
ability of combining multiple concepts in generated images. We use several
automatic metrics to quantitatively compare our method against several
baselines, and further affirm the results using a user study. Finally, we
showcase several applications of our method. Project page is available at:
https://omriavrahami.com/break-a-scene/