IDAdapter : Apprentissage de caractéristiques mixtes pour la personnalisation sans réglage des modèles de génération d'images à partir de texte
IDAdapter: Learning Mixed Features for Tuning-Free Personalization of Text-to-Image Models
March 20, 2024
Auteurs: Siying Cui, Jiankang Deng, Jia Guo, Xiang An, Yongle Zhao, Xinyu Wei, Ziyong Feng
cs.AI
Résumé
L'utilisation de Stable Diffusion pour la génération de portraits personnalisés s'est imposée comme un outil puissant et remarquable, permettant aux utilisateurs de créer des avatars de personnages personnalisés de haute fidélité à partir de leurs instructions spécifiques. Cependant, les méthodes de personnalisation existantes rencontrent des défis, notamment le réglage au moment du test, la nécessité de plusieurs images d'entrée, une faible préservation de l'identité et une diversité limitée dans les résultats générés. Pour surmonter ces défis, nous présentons IDAdapter, une approche sans réglage qui améliore la diversité et la préservation de l'identité dans la génération d'images personnalisées à partir d'une seule image de visage. IDAdapter intègre un concept personnalisé dans le processus de génération grâce à une combinaison d'injections textuelles et visuelles ainsi qu'une perte d'identité faciale. Pendant la phase d'entraînement, nous incorporons des caractéristiques mixtes provenant de plusieurs images de référence d'une identité spécifique pour enrichir les détails liés à l'identité, guidant ainsi le modèle à générer des images avec des styles, des expressions et des angles plus variés par rapport aux travaux précédents. Des évaluations approfondies démontrent l'efficacité de notre méthode, atteignant à la fois la diversité et la fidélité de l'identité dans les images générées.
English
Leveraging Stable Diffusion for the generation of personalized portraits has
emerged as a powerful and noteworthy tool, enabling users to create
high-fidelity, custom character avatars based on their specific prompts.
However, existing personalization methods face challenges, including test-time
fine-tuning, the requirement of multiple input images, low preservation of
identity, and limited diversity in generated outcomes. To overcome these
challenges, we introduce IDAdapter, a tuning-free approach that enhances the
diversity and identity preservation in personalized image generation from a
single face image. IDAdapter integrates a personalized concept into the
generation process through a combination of textual and visual injections and a
face identity loss. During the training phase, we incorporate mixed features
from multiple reference images of a specific identity to enrich
identity-related content details, guiding the model to generate images with
more diverse styles, expressions, and angles compared to previous works.
Extensive evaluations demonstrate the effectiveness of our method, achieving
both diversity and identity fidelity in generated images.Summary
AI-Generated Summary