ChatPaper.aiChatPaper

Edita y Mi Rostro no Permanecerá: Defensa Biométrica Personal contra la Edición Generativa Maliciosa

Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing

November 25, 2024
Autores: Hanhui Wang, Yihua Zhang, Ruizheng Bai, Yue Zhao, Sijia Liu, Zhengzhong Tu
cs.AI

Resumen

Los avances recientes en modelos de difusión han facilitado la edición generativa de imágenes, permitiendo ediciones creativas pero planteando preocupaciones éticas, especialmente en cuanto a ediciones maliciosas en retratos humanos que amenazan la privacidad y la seguridad de la identidad. Los métodos de protección existentes se basan principalmente en perturbaciones adversariales para anular las ediciones, pero a menudo fallan ante solicitudes de edición diversas. Proponemos FaceLock, un enfoque novedoso para la protección de retratos que optimiza las perturbaciones adversariales para destruir o alterar significativamente la información biométrica, volviendo los resultados editados biométricamente irreconocibles. FaceLock integra el reconocimiento facial y la percepción visual en la optimización de perturbaciones para proporcionar una protección sólida contra varios intentos de edición. También destacamos fallos en las métricas de evaluación comúnmente utilizadas y revelamos cómo pueden ser manipuladas, enfatizando la necesidad de evaluaciones confiables de la protección. Los experimentos muestran que FaceLock supera a los valores base en la defensa contra ediciones maliciosas y es resistente contra técnicas de purificación. Estudios de ablación confirman su estabilidad y amplia aplicabilidad en algoritmos de edición basados en difusión. Nuestro trabajo avanza en la defensa biométrica y sienta las bases para prácticas que preservan la privacidad en la edición de imágenes. El código está disponible en: https://github.com/taco-group/FaceLock.
English
Recent advancements in diffusion models have made generative image editing more accessible, enabling creative edits but raising ethical concerns, particularly regarding malicious edits to human portraits that threaten privacy and identity security. Existing protection methods primarily rely on adversarial perturbations to nullify edits but often fail against diverse editing requests. We propose FaceLock, a novel approach to portrait protection that optimizes adversarial perturbations to destroy or significantly alter biometric information, rendering edited outputs biometrically unrecognizable. FaceLock integrates facial recognition and visual perception into perturbation optimization to provide robust protection against various editing attempts. We also highlight flaws in commonly used evaluation metrics and reveal how they can be manipulated, emphasizing the need for reliable assessments of protection. Experiments show FaceLock outperforms baselines in defending against malicious edits and is robust against purification techniques. Ablation studies confirm its stability and broad applicability across diffusion-based editing algorithms. Our work advances biometric defense and sets the foundation for privacy-preserving practices in image editing. The code is available at: https://github.com/taco-group/FaceLock.

Summary

AI-Generated Summary

PDF23November 28, 2024