ChatPaper.aiChatPaper

Break-A-Scene: Extracción de Múltiples Conceptos a partir de una Única Imagen

Break-A-Scene: Extracting Multiple Concepts from a Single Image

May 25, 2023
Autores: Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski
cs.AI

Resumen

La personalización de modelos de texto a imagen tiene como objetivo introducir un concepto proporcionado por el usuario en el modelo, permitiendo su síntesis en diversos contextos. Sin embargo, los métodos actuales se centran principalmente en el caso de aprender un único concepto a partir de múltiples imágenes con variaciones en fondos y poses, y tienen dificultades cuando se adaptan a un escenario diferente. En este trabajo, introducimos la tarea de descomposición textual de escenas: dada una única imagen de una escena que puede contener varios conceptos, nuestro objetivo es extraer un token de texto distinto para cada concepto, permitiendo un control detallado sobre las escenas generadas. Para ello, proponemos aumentar la imagen de entrada con máscaras que indican la presencia de conceptos objetivo. Estas máscaras pueden ser proporcionadas por el usuario o generadas automáticamente por un modelo de segmentación preentrenado. Luego, presentamos un novedoso proceso de personalización en dos fases que optimiza un conjunto de incrustaciones textuales dedicadas (manejadores), así como los pesos del modelo, logrando un equilibrio delicado entre capturar con precisión los conceptos y evitar el sobreajuste. Empleamos una pérdida de difusión enmascarada para permitir que los manejadores generen sus conceptos asignados, complementada con una nueva pérdida en mapas de atención cruzada para prevenir el entrelazamiento. También introducimos union-sampling, una estrategia de entrenamiento destinada a mejorar la capacidad de combinar múltiples conceptos en imágenes generadas. Utilizamos varias métricas automáticas para comparar cuantitativamente nuestro método con varias líneas base, y confirmamos los resultados mediante un estudio de usuarios. Finalmente, mostramos varias aplicaciones de nuestro método. La página del proyecto está disponible en: https://omriavrahami.com/break-a-scene/
English
Text-to-image model personalization aims to introduce a user-provided concept to the model, allowing its synthesis in diverse contexts. However, current methods primarily focus on the case of learning a single concept from multiple images with variations in backgrounds and poses, and struggle when adapted to a different scenario. In this work, we introduce the task of textual scene decomposition: given a single image of a scene that may contain several concepts, we aim to extract a distinct text token for each concept, enabling fine-grained control over the generated scenes. To this end, we propose augmenting the input image with masks that indicate the presence of target concepts. These masks can be provided by the user or generated automatically by a pre-trained segmentation model. We then present a novel two-phase customization process that optimizes a set of dedicated textual embeddings (handles), as well as the model weights, striking a delicate balance between accurately capturing the concepts and avoiding overfitting. We employ a masked diffusion loss to enable handles to generate their assigned concepts, complemented by a novel loss on cross-attention maps to prevent entanglement. We also introduce union-sampling, a training strategy aimed to improve the ability of combining multiple concepts in generated images. We use several automatic metrics to quantitatively compare our method against several baselines, and further affirm the results using a user study. Finally, we showcase several applications of our method. Project page is available at: https://omriavrahami.com/break-a-scene/
PDF70December 15, 2024