ChatPaper.aiChatPaper

Edit Away and My Face Will not Stay: Defesa Biométrica Pessoal contra Edição Generativa Maliciosa

Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing

November 25, 2024
Autores: Hanhui Wang, Yihua Zhang, Ruizheng Bai, Yue Zhao, Sijia Liu, Zhengzhong Tu
cs.AI

Resumo

Avanços recentes em modelos de difusão tornaram a edição generativa de imagens mais acessível, possibilitando edições criativas, porém levantando preocupações éticas, especialmente em relação a edições maliciosas em retratos humanos que ameaçam a privacidade e a segurança da identidade. Métodos de proteção existentes geralmente dependem de perturbações adversariais para anular edições, mas frequentemente falham diante de solicitações de edição diversas. Propomos o FaceLock, uma abordagem inovadora para proteção de retratos que otimiza perturbações adversariais para destruir ou alterar significativamente informações biométricas, tornando as saídas editadas biometricamente irreconhecíveis. O FaceLock integra reconhecimento facial e percepção visual na otimização de perturbações para fornecer proteção robusta contra várias tentativas de edição. Também destacamos falhas em métricas de avaliação comumente utilizadas e revelamos como podem ser manipuladas, enfatizando a necessidade de avaliações confiáveis de proteção. Experimentos mostram que o FaceLock supera as bases na defesa contra edições maliciosas e é robusto contra técnicas de purificação. Estudos de ablação confirmam sua estabilidade e ampla aplicabilidade em algoritmos de edição baseados em difusão. Nosso trabalho avança na defesa biométrica e estabelece a base para práticas de preservação de privacidade na edição de imagens. O código está disponível em: https://github.com/taco-group/FaceLock.
English
Recent advancements in diffusion models have made generative image editing more accessible, enabling creative edits but raising ethical concerns, particularly regarding malicious edits to human portraits that threaten privacy and identity security. Existing protection methods primarily rely on adversarial perturbations to nullify edits but often fail against diverse editing requests. We propose FaceLock, a novel approach to portrait protection that optimizes adversarial perturbations to destroy or significantly alter biometric information, rendering edited outputs biometrically unrecognizable. FaceLock integrates facial recognition and visual perception into perturbation optimization to provide robust protection against various editing attempts. We also highlight flaws in commonly used evaluation metrics and reveal how they can be manipulated, emphasizing the need for reliable assessments of protection. Experiments show FaceLock outperforms baselines in defending against malicious edits and is robust against purification techniques. Ablation studies confirm its stability and broad applicability across diffusion-based editing algorithms. Our work advances biometric defense and sets the foundation for privacy-preserving practices in image editing. The code is available at: https://github.com/taco-group/FaceLock.

Summary

AI-Generated Summary

PDF23November 28, 2024