ChatPaper.aiChatPaper

FastComposer: Generazione di Immagini Multi-Soggetto senza Ottimizzazione con Attenzione Localizzata

FastComposer: Tuning-Free Multi-Subject Image Generation with Localized Attention

May 17, 2023
Autori: Guangxuan Xiao, Tianwei Yin, William T. Freeman, Frédo Durand, Song Han
cs.AI

Abstract

I modelli di diffusione eccellono nella generazione di immagini da testo, in particolare nella generazione guidata dal soggetto per immagini personalizzate. Tuttavia, i metodi esistenti sono inefficienti a causa del fine-tuning specifico per il soggetto, che è computazionalmente intensivo e ostacola una distribuzione efficiente. Inoltre, i metodi esistenti hanno difficoltà con la generazione multi-soggetto, poiché spesso mescolano le caratteristiche tra i soggetti. Presentiamo FastComposer, che consente una generazione efficiente, personalizzata e multi-soggetto di immagini da testo senza fine-tuning. FastComposer utilizza embedding di soggetto estratti da un codificatore di immagini per arricchire il condizionamento testuale generico nei modelli di diffusione, consentendo la generazione di immagini personalizzate basate su immagini di soggetto e istruzioni testuali con solo passaggi in avanti. Per affrontare il problema della fusione delle identità nella generazione multi-soggetto, FastComposer propone una supervisione di localizzazione cross-attention durante l'addestramento, imponendo che l'attenzione dei soggetti di riferimento sia localizzata nelle regioni corrette delle immagini target. Il condizionamento ingenuo sugli embedding di soggetto porta a un overfitting del soggetto. FastComposer propone un condizionamento ritardato del soggetto nel passaggio di denoising per mantenere sia l'identità che l'editabilità nella generazione di immagini guidata dal soggetto. FastComposer genera immagini di più individui non visti con stili, azioni e contesti diversi. Raggiunge un'accelerazione di 300-2500 volte rispetto ai metodi basati su fine-tuning e richiede zero spazio di archiviazione aggiuntivo per nuovi soggetti. FastComposer apre la strada a una creazione efficiente, personalizzata e di alta qualità di immagini multi-soggetto. Codice, modello e dataset sono disponibili su https://github.com/mit-han-lab/fastcomposer.
English
Diffusion models excel at text-to-image generation, especially in subject-driven generation for personalized images. However, existing methods are inefficient due to the subject-specific fine-tuning, which is computationally intensive and hampers efficient deployment. Moreover, existing methods struggle with multi-subject generation as they often blend features among subjects. We present FastComposer which enables efficient, personalized, multi-subject text-to-image generation without fine-tuning. FastComposer uses subject embeddings extracted by an image encoder to augment the generic text conditioning in diffusion models, enabling personalized image generation based on subject images and textual instructions with only forward passes. To address the identity blending problem in the multi-subject generation, FastComposer proposes cross-attention localization supervision during training, enforcing the attention of reference subjects localized to the correct regions in the target images. Naively conditioning on subject embeddings results in subject overfitting. FastComposer proposes delayed subject conditioning in the denoising step to maintain both identity and editability in subject-driven image generation. FastComposer generates images of multiple unseen individuals with different styles, actions, and contexts. It achieves 300times-2500times speedup compared to fine-tuning-based methods and requires zero extra storage for new subjects. FastComposer paves the way for efficient, personalized, and high-quality multi-subject image creation. Code, model, and dataset are available at https://github.com/mit-han-lab/fastcomposer.
PDF21December 15, 2024