Personalizzazione inversa
Reverse Personalization
December 28, 2025
Autori: Han-Wei Kung, Tuomas Varanka, Nicu Sebe
cs.AI
Abstract
I recenti modelli di diffusione text-to-image hanno dimostrato una notevole capacità di generare immagini facciali realistiche condizionate da prompt testuali e identità umane, consentendo la creazione di immagini facciali personalizzate. Tuttavia, i metodi esistenti basati su prompt per rimuovere o modificare caratteristiche specifiche dell'identità si basano sul fatto che il soggetto sia ben rappresentato nel modello pre-addestrato o richiedono una messa a punto del modello per identità specifiche. In questo lavoro, analizziamo il processo di generazione dell'identità e introduciamo un framework di personalizzazione inversa per l'anonimizzazione del volto. Il nostro approccio sfrutta l'inversione di diffusione condizionata, consentendo la manipolazione diretta delle immagini senza utilizzare prompt testuali. Per generalizzare oltre i soggetti presenti nei dati di addestramento del modello, incorporiamo un ramo di condizionamento guidato dall'identità. A differenza dei precedenti metodi di anonimizzazione, che mancano di controllo sugli attributi facciali, il nostro framework supporta un'anonimizzazione controllabile per attributi. Dimostriamo che il nostro metodo raggiunge un equilibrio all'avanguardia tra rimozione dell'identità, preservazione degli attributi e qualità dell'immagine. Il codice sorgente e i dati sono disponibili all'indirizzo https://github.com/hanweikung/reverse-personalization.
English
Recent text-to-image diffusion models have demonstrated remarkable generation of realistic facial images conditioned on textual prompts and human identities, enabling creating personalized facial imagery. However, existing prompt-based methods for removing or modifying identity-specific features rely either on the subject being well-represented in the pre-trained model or require model fine-tuning for specific identities. In this work, we analyze the identity generation process and introduce a reverse personalization framework for face anonymization. Our approach leverages conditional diffusion inversion, allowing direct manipulation of images without using text prompts. To generalize beyond subjects in the model's training data, we incorporate an identity-guided conditioning branch. Unlike prior anonymization methods, which lack control over facial attributes, our framework supports attribute-controllable anonymization. We demonstrate that our method achieves a state-of-the-art balance between identity removal, attribute preservation, and image quality. Source code and data are available at https://github.com/hanweikung/reverse-personalization .