Break-A-Scene: Estrazione di Multipli Concetti da una Singola Immagine
Break-A-Scene: Extracting Multiple Concepts from a Single Image
May 25, 2023
Autori: Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski
cs.AI
Abstract
La personalizzazione dei modelli text-to-image mira a introdurre un concetto fornito dall'utente nel modello, consentendone la sintesi in contesti diversificati. Tuttavia, i metodi attuali si concentrano principalmente sull'apprendimento di un singolo concetto da più immagini con variazioni di sfondi e pose, e faticano quando adattati a uno scenario diverso. In questo lavoro, introduciamo il compito di decomposizione testuale di una scena: data una singola immagine di una scena che può contenere diversi concetti, miriamo a estrarre un token testuale distinto per ciascun concetto, consentendo un controllo fine sulle scene generate. A tal fine, proponiamo di arricchire l'immagine di input con maschere che indicano la presenza dei concetti target. Queste maschere possono essere fornite dall'utente o generate automaticamente da un modello di segmentazione pre-addestrato. Presentiamo quindi un innovativo processo di personalizzazione in due fasi che ottimizza un insieme di embedding testuali dedicati (handle), nonché i pesi del modello, trovando un delicato equilibrio tra l'acquisizione accurata dei concetti e l'evitare l'overfitting. Utilizziamo una perdita di diffusione mascherata per consentire agli handle di generare i concetti assegnati, integrata da una nuova perdita sulle mappe di cross-attention per prevenire l'intreccio. Introduciamo inoltre l'union-sampling, una strategia di addestramento mirata a migliorare la capacità di combinare più concetti nelle immagini generate. Utilizziamo diverse metriche automatiche per confrontare quantitativamente il nostro metodo con diverse baseline e confermiamo ulteriormente i risultati attraverso uno studio con utenti. Infine, mostriamo diverse applicazioni del nostro metodo. La pagina del progetto è disponibile all'indirizzo: https://omriavrahami.com/break-a-scene/
English
Text-to-image model personalization aims to introduce a user-provided concept
to the model, allowing its synthesis in diverse contexts. However, current
methods primarily focus on the case of learning a single concept from multiple
images with variations in backgrounds and poses, and struggle when adapted to a
different scenario. In this work, we introduce the task of textual scene
decomposition: given a single image of a scene that may contain several
concepts, we aim to extract a distinct text token for each concept, enabling
fine-grained control over the generated scenes. To this end, we propose
augmenting the input image with masks that indicate the presence of target
concepts. These masks can be provided by the user or generated automatically by
a pre-trained segmentation model. We then present a novel two-phase
customization process that optimizes a set of dedicated textual embeddings
(handles), as well as the model weights, striking a delicate balance between
accurately capturing the concepts and avoiding overfitting. We employ a masked
diffusion loss to enable handles to generate their assigned concepts,
complemented by a novel loss on cross-attention maps to prevent entanglement.
We also introduce union-sampling, a training strategy aimed to improve the
ability of combining multiple concepts in generated images. We use several
automatic metrics to quantitatively compare our method against several
baselines, and further affirm the results using a user study. Finally, we
showcase several applications of our method. Project page is available at:
https://omriavrahami.com/break-a-scene/