ChatPaper.aiChatPaper

MOSAIC : Génération personnalisée multi-sujets via un alignement et un désentrelacement sensibles à la correspondance

MOSAIC: Multi-Subject Personalized Generation via Correspondence-Aware Alignment and Disentanglement

September 2, 2025
papers.authors: Dong She, Siming Fu, Mushui Liu, Qiaoqiao Jin, Hualiang Wang, Mu Liu, Jidong Jiang
cs.AI

papers.abstract

La génération personnalisée multi-sujets présente des défis uniques pour maintenir la fidélité identitaire et la cohérence sémantique lors de la synthèse d'images conditionnées par plusieurs sujets de référence. Les méthodes existantes souffrent souvent de mélange d'identités et de fuites d'attributs en raison d'une modélisation inadéquate de la manière dont les différents sujets devraient interagir dans des espaces de représentation partagés. Nous présentons MOSAIC, un framework centré sur la représentation qui repense la génération multi-sujets à travers une correspondance sémantique explicite et une séparation orthogonale des caractéristiques. Notre idée clé est que la génération multi-sujets nécessite un alignement sémantique précis au niveau de la représentation - savoir exactement quelles régions de l'image générée doivent correspondre à quelles parties de chaque référence. Pour y parvenir, nous introduisons SemAlign-MS, un ensemble de données méticuleusement annoté fournissant des correspondances sémantiques fines entre plusieurs sujets de référence et des images cibles, précédemment indisponibles dans ce domaine. Sur cette base, nous proposons la perte d'attention par correspondance sémantique pour imposer un alignement sémantique point à point précis, garantissant une forte cohérence de chaque référence à ses régions désignées. De plus, nous développons la perte de séparation multi-référence pour pousser différents sujets dans des sous-espaces d'attention orthogonaux, empêchant l'interférence des caractéristiques tout en préservant les caractéristiques identitaires individuelles. Des expériences approfondies démontrent que MOSAIC atteint des performances de pointe sur plusieurs benchmarks. Notamment, alors que les méthodes existantes se dégradent généralement au-delà de 3 sujets, MOSAIC maintient une haute fidélité avec 4+ sujets de référence, ouvrant de nouvelles possibilités pour des applications complexes de synthèse multi-sujets.
English
Multi-subject personalized generation presents unique challenges in maintaining identity fidelity and semantic coherence when synthesizing images conditioned on multiple reference subjects. Existing methods often suffer from identity blending and attribute leakage due to inadequate modeling of how different subjects should interact within shared representation spaces. We present MOSAIC, a representation-centric framework that rethinks multi-subject generation through explicit semantic correspondence and orthogonal feature disentanglement. Our key insight is that multi-subject generation requires precise semantic alignment at the representation level - knowing exactly which regions in the generated image should attend to which parts of each reference. To enable this, we introduce SemAlign-MS, a meticulously annotated dataset providing fine-grained semantic correspondences between multiple reference subjects and target images, previously unavailable in this domain. Building on this foundation, we propose the semantic correspondence attention loss to enforce precise point-to-point semantic alignment, ensuring high consistency from each reference to its designated regions. Furthermore, we develop the multi-reference disentanglement loss to push different subjects into orthogonal attention subspaces, preventing feature interference while preserving individual identity characteristics. Extensive experiments demonstrate that MOSAIC achieves state-of-the-art performance on multiple benchmarks. Notably, while existing methods typically degrade beyond 3 subjects, MOSAIC maintains high fidelity with 4+ reference subjects, opening new possibilities for complex multi-subject synthesis applications.
PDF81September 4, 2025