ChatPaper.aiChatPaper

Dépersonnalisation inversée

Reverse Personalization

December 28, 2025
papers.authors: Han-Wei Kung, Tuomas Varanka, Nicu Sebe
cs.AI

papers.abstract

Les modèles de diffusion récents de génération d'images à partir de texte ont démontré une capacité remarquable à produire des images faciales réalistes conditionnées par des invites textuelles et des identités humaines, permettant la création d'imagerie faciale personnalisée. Cependant, les méthodes existantes basées sur des invites pour supprimer ou modifier les caractéristiques spécifiques à une identité reposent soit sur une bonne représentation du sujet dans le modèle pré-entraîné, soit nécessitent un ajustement du modèle pour des identités spécifiques. Dans ce travail, nous analysons le processus de génération d'identité et introduisons un cadre de personnalisation inverse pour l'anonymisation des visages. Notre approche exploite l'inversion de diffusion conditionnelle, permettant une manipulation directe des images sans utiliser d'invites textuelles. Pour généraliser au-delà des sujets présents dans les données d'entraînement du modèle, nous intégrons une branche de conditionnement guidée par l'identité. Contrairement aux méthodes d'anonymisation antérieures, qui manquent de contrôle sur les attributs faciaux, notre cadre prend en charge une anonymisation contrôlable par attributs. Nous démontrons que notre méthode atteint un équilibre de pointe entre la suppression de l'identité, la préservation des attributs et la qualité de l'image. Le code source et les données sont disponibles à l'adresse https://github.com/hanweikung/reverse-personalization.
English
Recent text-to-image diffusion models have demonstrated remarkable generation of realistic facial images conditioned on textual prompts and human identities, enabling creating personalized facial imagery. However, existing prompt-based methods for removing or modifying identity-specific features rely either on the subject being well-represented in the pre-trained model or require model fine-tuning for specific identities. In this work, we analyze the identity generation process and introduce a reverse personalization framework for face anonymization. Our approach leverages conditional diffusion inversion, allowing direct manipulation of images without using text prompts. To generalize beyond subjects in the model's training data, we incorporate an identity-guided conditioning branch. Unlike prior anonymization methods, which lack control over facial attributes, our framework supports attribute-controllable anonymization. We demonstrate that our method achieves a state-of-the-art balance between identity removal, attribute preservation, and image quality. Source code and data are available at https://github.com/hanweikung/reverse-personalization .
PDF01December 31, 2025