ChatPaper.aiChatPaper

IDAdapter: Erlernen gemischter Merkmale zur personalisierungsfreien Anpassung von Text-zu-Bild-Modellen

IDAdapter: Learning Mixed Features for Tuning-Free Personalization of Text-to-Image Models

March 20, 2024
papers.authors: Siying Cui, Jiankang Deng, Jia Guo, Xiang An, Yongle Zhao, Xinyu Wei, Ziyong Feng
cs.AI

papers.abstract

Die Nutzung der stabilen Diffusion zur Erzeugung personalisierter Porträts hat sich als leistungsstarkes und bemerkenswertes Werkzeug erwiesen, das es Benutzern ermöglicht, hochwertige, individuelle Charakter-Avatare basierend auf ihren spezifischen Eingaben zu erstellen. Allerdings stehen bestehende Personalisierungsmethoden vor Herausforderungen, darunter Feinabstimmung zur Testzeit, die Notwendigkeit mehrerer Eingabebilder, geringe Bewahrung der Identität und begrenzte Vielfalt in den erzeugten Ergebnissen. Um diese Herausforderungen zu überwinden, stellen wir IDAdapter vor, einen abstimmungsfreien Ansatz, der die Vielfalt und Identitätswahrung bei der personalisierten Bildgenerierung aus einem einzigen Gesichtsbild verbessert. IDAdapter integriert ein personalisiertes Konzept in den Generierungsprozess durch eine Kombination von textuellen und visuellen Einspritzungen sowie einem Gesichtsidentitätsverlust. Während der Trainingsphase integrieren wir gemischte Merkmale aus mehreren Referenzbildern einer spezifischen Identität, um identitätsbezogene Inhaltsdetails zu bereichern und das Modell dabei zu unterstützen, Bilder mit vielfältigeren Stilen, Ausdrücken und Blickwinkeln im Vergleich zu früheren Arbeiten zu generieren. Umfangreiche Evaluierungen zeigen die Wirksamkeit unserer Methode auf, die sowohl Vielfalt als auch Identitätsfidelität in den erzeugten Bildern erreicht.
English
Leveraging Stable Diffusion for the generation of personalized portraits has emerged as a powerful and noteworthy tool, enabling users to create high-fidelity, custom character avatars based on their specific prompts. However, existing personalization methods face challenges, including test-time fine-tuning, the requirement of multiple input images, low preservation of identity, and limited diversity in generated outcomes. To overcome these challenges, we introduce IDAdapter, a tuning-free approach that enhances the diversity and identity preservation in personalized image generation from a single face image. IDAdapter integrates a personalized concept into the generation process through a combination of textual and visual injections and a face identity loss. During the training phase, we incorporate mixed features from multiple reference images of a specific identity to enrich identity-related content details, guiding the model to generate images with more diverse styles, expressions, and angles compared to previous works. Extensive evaluations demonstrate the effectiveness of our method, achieving both diversity and identity fidelity in generated images.
PDF241December 15, 2024