ChatPaper.aiChatPaper

Bewerk Weg en Mijn Gezicht Blijft Niet Staan: Persoonlijke Biometrische Verdediging tegen Kwaadwillige Generatieve Bewerking.

Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing

November 25, 2024
Auteurs: Hanhui Wang, Yihua Zhang, Ruizheng Bai, Yue Zhao, Sijia Liu, Zhengzhong Tu
cs.AI

Samenvatting

Recente ontwikkelingen in diffusiemodellen hebben generatieve beeldbewerking toegankelijker gemaakt, waardoor creatieve bewerkingen mogelijk zijn maar ook ethische zorgen oproepen, met name met betrekking tot kwaadwillige bewerkingen van menselijke portretten die de privacy en identiteitsbeveiliging bedreigen. Bestaande beschermingsmethoden vertrouwen voornamelijk op vijandige verstoringen om bewerkingen teniet te doen, maar falen vaak bij diverse bewerkingsverzoeken. Wij stellen FaceLock voor, een nieuw benadering voor portretbescherming die vijandige verstoringen optimaliseert om biometrische informatie te vernietigen of aanzienlijk te wijzigen, waardoor bewerkte uitvoer biometrisch onherkenbaar wordt. FaceLock integreert gezichtsherkenning en visuele perceptie in de optimalisatie van verstoringen om robuuste bescherming te bieden tegen verschillende bewerkingspogingen. We benadrukken ook tekortkomingen in veelgebruikte evaluatiemetrics en onthullen hoe ze gemanipuleerd kunnen worden, waarbij de noodzaak van betrouwbare beoordelingen van bescherming wordt benadrukt. Experimenten tonen aan dat FaceLock beter presteert dan baselines bij het verdedigen tegen kwaadwillige bewerkingen en bestand is tegen zuiveringstechnieken. Ablatiestudies bevestigen de stabiliteit en brede toepasbaarheid ervan bij diffusie-gebaseerde bewerkingsalgoritmen. Ons werk bevordert biometrische verdediging en legt de basis voor privacybehoudende praktijken in beeldbewerking. De code is beschikbaar op: https://github.com/taco-group/FaceLock.
English
Recent advancements in diffusion models have made generative image editing more accessible, enabling creative edits but raising ethical concerns, particularly regarding malicious edits to human portraits that threaten privacy and identity security. Existing protection methods primarily rely on adversarial perturbations to nullify edits but often fail against diverse editing requests. We propose FaceLock, a novel approach to portrait protection that optimizes adversarial perturbations to destroy or significantly alter biometric information, rendering edited outputs biometrically unrecognizable. FaceLock integrates facial recognition and visual perception into perturbation optimization to provide robust protection against various editing attempts. We also highlight flaws in commonly used evaluation metrics and reveal how they can be manipulated, emphasizing the need for reliable assessments of protection. Experiments show FaceLock outperforms baselines in defending against malicious edits and is robust against purification techniques. Ablation studies confirm its stability and broad applicability across diffusion-based editing algorithms. Our work advances biometric defense and sets the foundation for privacy-preserving practices in image editing. The code is available at: https://github.com/taco-group/FaceLock.

Summary

AI-Generated Summary

PDF23November 28, 2024