ChatPaper.aiChatPaper

Break-A-Scene:単一画像からの複数概念の抽出

Break-A-Scene: Extracting Multiple Concepts from a Single Image

May 25, 2023
著者: Omri Avrahami, Kfir Aberman, Ohad Fried, Daniel Cohen-Or, Dani Lischinski
cs.AI

要旨

テキストから画像へのモデルのパーソナライゼーションは、ユーザーが提供した概念をモデルに導入し、それを多様な文脈で合成することを目指す。しかし、現在の手法は主に、背景やポーズの異なる複数の画像から単一の概念を学習するケースに焦点を当てており、異なるシナリオに適応する際に困難を抱えている。本研究では、テキストシーン分解のタスクを導入する:複数の概念を含む可能性のあるシーンの単一画像が与えられた場合、各概念に対して個別のテキストトークンを抽出し、生成されるシーンに対するきめ細かい制御を可能にすることを目指す。この目的のために、ターゲット概念の存在を示すマスクを入力画像に追加することを提案する。これらのマスクはユーザーによって提供されるか、事前に訓練されたセグメンテーションモデルによって自動生成される。次に、専用のテキスト埋め込み(ハンドル)とモデルの重みを最適化する新しい二段階のカスタマイズプロセスを提示し、概念を正確に捉えることと過剰適合を避けることの間の微妙なバランスを取る。マスク付き拡散損失を使用して、ハンドルが割り当てられた概念を生成できるようにし、絡み合いを防ぐためにクロスアテンションマップに対する新しい損失を補完する。また、生成された画像で複数の概念を組み合わせる能力を向上させることを目的としたトレーニング戦略であるユニオンサンプリングを導入する。いくつかの自動メトリクスを使用して、我々の手法をいくつかのベースラインと定量的に比較し、ユーザー調査を使用して結果をさらに確認する。最後に、我々の手法のいくつかの応用例を紹介する。プロジェクトページは以下で利用可能:https://omriavrahami.com/break-a-scene/
English
Text-to-image model personalization aims to introduce a user-provided concept to the model, allowing its synthesis in diverse contexts. However, current methods primarily focus on the case of learning a single concept from multiple images with variations in backgrounds and poses, and struggle when adapted to a different scenario. In this work, we introduce the task of textual scene decomposition: given a single image of a scene that may contain several concepts, we aim to extract a distinct text token for each concept, enabling fine-grained control over the generated scenes. To this end, we propose augmenting the input image with masks that indicate the presence of target concepts. These masks can be provided by the user or generated automatically by a pre-trained segmentation model. We then present a novel two-phase customization process that optimizes a set of dedicated textual embeddings (handles), as well as the model weights, striking a delicate balance between accurately capturing the concepts and avoiding overfitting. We employ a masked diffusion loss to enable handles to generate their assigned concepts, complemented by a novel loss on cross-attention maps to prevent entanglement. We also introduce union-sampling, a training strategy aimed to improve the ability of combining multiple concepts in generated images. We use several automatic metrics to quantitatively compare our method against several baselines, and further affirm the results using a user study. Finally, we showcase several applications of our method. Project page is available at: https://omriavrahami.com/break-a-scene/
PDF70December 15, 2024