FastComposer : Génération d'images multi-sujets sans réglage grâce à une attention localisée
FastComposer: Tuning-Free Multi-Subject Image Generation with Localized Attention
May 17, 2023
Auteurs: Guangxuan Xiao, Tianwei Yin, William T. Freeman, Frédo Durand, Song Han
cs.AI
Résumé
Les modèles de diffusion excellent dans la génération d'images à partir de texte, en particulier pour la génération axée sur des sujets permettant des images personnalisées. Cependant, les méthodes existantes sont inefficaces en raison de l'ajustement spécifique à chaque sujet, qui est coûteux en calculs et entrave un déploiement efficace. De plus, les méthodes actuelles peinent à générer des images avec plusieurs sujets, car elles mélangent souvent les caractéristiques entre les sujets. Nous présentons FastComposer, qui permet une génération efficace, personnalisée et multi-sujets d'images à partir de texte sans ajustement. FastComposer utilise des embeddings de sujets extraits par un encodeur d'images pour enrichir le conditionnement textuel générique dans les modèles de diffusion, permettant ainsi une génération d'images personnalisées basée sur des images de sujets et des instructions textuelles avec uniquement des passes avant. Pour résoudre le problème de mélange d'identité dans la génération multi-sujets, FastComposer propose une supervision de localisation par attention croisée pendant l'entraînement, forçant l'attention des sujets de référence à se localiser sur les bonnes régions dans les images cibles. Un conditionnement naïf sur les embeddings de sujets entraîne un surajustement. FastComposer propose un conditionnement retardé des sujets lors de l'étape de débruitage pour préserver à la fois l'identité et la capacité d'édition dans la génération d'images axée sur des sujets. FastComposer génère des images de plusieurs individus non vus avec différents styles, actions et contextes. Il atteint une accélération de 300 à 2500 fois par rapport aux méthodes basées sur l'ajustement et ne nécessite aucun stockage supplémentaire pour de nouveaux sujets. FastComposer ouvre la voie à une création d'images multi-sujets efficace, personnalisée et de haute qualité. Le code, le modèle et le jeu de données sont disponibles à l'adresse https://github.com/mit-han-lab/fastcomposer.
English
Diffusion models excel at text-to-image generation, especially in
subject-driven generation for personalized images. However, existing methods
are inefficient due to the subject-specific fine-tuning, which is
computationally intensive and hampers efficient deployment. Moreover, existing
methods struggle with multi-subject generation as they often blend features
among subjects. We present FastComposer which enables efficient, personalized,
multi-subject text-to-image generation without fine-tuning. FastComposer uses
subject embeddings extracted by an image encoder to augment the generic text
conditioning in diffusion models, enabling personalized image generation based
on subject images and textual instructions with only forward passes. To address
the identity blending problem in the multi-subject generation, FastComposer
proposes cross-attention localization supervision during training, enforcing
the attention of reference subjects localized to the correct regions in the
target images. Naively conditioning on subject embeddings results in subject
overfitting. FastComposer proposes delayed subject conditioning in the
denoising step to maintain both identity and editability in subject-driven
image generation. FastComposer generates images of multiple unseen individuals
with different styles, actions, and contexts. It achieves
300times-2500times speedup compared to fine-tuning-based methods and
requires zero extra storage for new subjects. FastComposer paves the way for
efficient, personalized, and high-quality multi-subject image creation. Code,
model, and dataset are available at
https://github.com/mit-han-lab/fastcomposer.