Break-A-Scene: Meerdere Concepten Uit één Afbeelding Extraheren
Break-A-Scene: Extracting Multiple Concepts from a Single Image
May 25, 2023
Auteurs: Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski
cs.AI
Samenvatting
Text-to-image model personalisatie heeft als doel een door de gebruiker aangeboden concept in het model te introduceren, waardoor het in diverse contexten kan worden gesynthetiseerd. Huidige methoden richten zich echter voornamelijk op het leren van een enkel concept uit meerdere afbeeldingen met variaties in achtergronden en poses, en hebben moeite wanneer ze worden aangepast aan een ander scenario. In dit werk introduceren we de taak van tekstuele scène-decompositie: gegeven een enkele afbeelding van een scène die mogelijk meerdere concepten bevat, streven we ernaar een apart teksttoken voor elk concept te extraheren, waardoor fijnmazige controle over de gegenereerde scènes mogelijk wordt. Hiertoe stellen we voor om de invoerafbeelding aan te vullen met maskers die de aanwezigheid van doelconcepten aangeven. Deze maskers kunnen door de gebruiker worden verstrekt of automatisch worden gegenereerd door een vooraf getraind segmentatiemodel. Vervolgens presenteren we een nieuw tweefasen aanpassingsproces dat een reeks toegewijde tekstuele embeddings (handles) optimaliseert, evenals de modelgewichten, waarbij een delicate balans wordt gevonden tussen het nauwkeurig vastleggen van de concepten en het vermijden van overfitting. We gebruiken een gemaskeerd diffusieverlies om handles in staat te stellen hun toegewezen concepten te genereren, aangevuld met een nieuw verlies op cross-attention maps om verstrengeling te voorkomen. We introduceren ook union-sampling, een trainingsstrategie die gericht is op het verbeteren van het vermogen om meerdere concepten in gegenereerde afbeeldingen te combineren. We gebruiken verschillende automatische metrieken om onze methode kwantitatief te vergelijken met verschillende baselines, en bevestigen de resultaten verder met een gebruikersstudie. Tot slot laten we verschillende toepassingen van onze methode zien. De projectpagina is beschikbaar op: https://omriavrahami.com/break-a-scene/
English
Text-to-image model personalization aims to introduce a user-provided concept
to the model, allowing its synthesis in diverse contexts. However, current
methods primarily focus on the case of learning a single concept from multiple
images with variations in backgrounds and poses, and struggle when adapted to a
different scenario. In this work, we introduce the task of textual scene
decomposition: given a single image of a scene that may contain several
concepts, we aim to extract a distinct text token for each concept, enabling
fine-grained control over the generated scenes. To this end, we propose
augmenting the input image with masks that indicate the presence of target
concepts. These masks can be provided by the user or generated automatically by
a pre-trained segmentation model. We then present a novel two-phase
customization process that optimizes a set of dedicated textual embeddings
(handles), as well as the model weights, striking a delicate balance between
accurately capturing the concepts and avoiding overfitting. We employ a masked
diffusion loss to enable handles to generate their assigned concepts,
complemented by a novel loss on cross-attention maps to prevent entanglement.
We also introduce union-sampling, a training strategy aimed to improve the
ability of combining multiple concepts in generated images. We use several
automatic metrics to quantitatively compare our method against several
baselines, and further affirm the results using a user study. Finally, we
showcase several applications of our method. Project page is available at:
https://omriavrahami.com/break-a-scene/