ChatPaper.aiChatPaper

TRCE: Rumo à Eliminação Confiável de Conceitos Maliciosos em Modelos de Difusão Texto-para-Imagem

TRCE: Towards Reliable Malicious Concept Erasure in Text-to-Image Diffusion Models

March 10, 2025
Autores: Ruidong Chen, Honglin Guo, Lanjun Wang, Chenyu Zhang, Weizhi Nie, An-An Liu
cs.AI

Resumo

Avanços recentes em modelos de difusão de texto para imagem permitem a geração de imagens fotorealistas, mas também trazem o risco de produzir conteúdo malicioso, como imagens NSFW. Para mitigar esse risco, métodos de remoção de conceitos são estudados para facilitar que o modelo desaprenda conceitos específicos. No entanto, os estudos atuais enfrentam dificuldades para apagar completamente conceitos maliciosos implicitamente embutidos em prompts (por exemplo, expressões metafóricas ou prompts adversariais) enquanto preservam a capacidade normal de geração do modelo. Para enfrentar esse desafio, nosso estudo propõe o TRCE, utilizando uma estratégia de remoção de conceitos em duas etapas para alcançar um equilíbrio eficaz entre a remoção confiável e a preservação do conhecimento. Primeiramente, o TRCE começa apagando a semântica maliciosa implicitamente embutida em prompts textuais. Ao identificar um objetivo de mapeamento crítico (ou seja, o embedding [EoT]), otimizamos as camadas de atenção cruzada para mapear prompts maliciosos para prompts contextualmente semelhantes, mas com conceitos seguros. Essa etapa impede que o modelo seja excessivamente influenciado por semânticas maliciosas durante o processo de remoção de ruído. Em seguida, considerando as propriedades determinísticas da trajetória de amostragem do modelo de difusão, o TRCE direciona ainda mais a previsão inicial de remoção de ruído para a direção segura e longe da direção insegura por meio de aprendizado contrastivo, evitando assim a geração de conteúdo malicioso. Por fim, realizamos avaliações abrangentes do TRCE em vários benchmarks de remoção de conceitos maliciosos, e os resultados demonstram sua eficácia em apagar conceitos maliciosos enquanto preserva melhor a capacidade original de geração do modelo. O código está disponível em: http://github.com/ddgoodgood/TRCE. ATENÇÃO: Este artigo inclui conteúdo gerado por modelos que pode conter material ofensivo.
English
Recent advances in text-to-image diffusion models enable photorealistic image generation, but they also risk producing malicious content, such as NSFW images. To mitigate risk, concept erasure methods are studied to facilitate the model to unlearn specific concepts. However, current studies struggle to fully erase malicious concepts implicitly embedded in prompts (e.g., metaphorical expressions or adversarial prompts) while preserving the model's normal generation capability. To address this challenge, our study proposes TRCE, using a two-stage concept erasure strategy to achieve an effective trade-off between reliable erasure and knowledge preservation. Firstly, TRCE starts by erasing the malicious semantics implicitly embedded in textual prompts. By identifying a critical mapping objective(i.e., the [EoT] embedding), we optimize the cross-attention layers to map malicious prompts to contextually similar prompts but with safe concepts. This step prevents the model from being overly influenced by malicious semantics during the denoising process. Following this, considering the deterministic properties of the sampling trajectory of the diffusion model, TRCE further steers the early denoising prediction toward the safe direction and away from the unsafe one through contrastive learning, thus further avoiding the generation of malicious content. Finally, we conduct comprehensive evaluations of TRCE on multiple malicious concept erasure benchmarks, and the results demonstrate its effectiveness in erasing malicious concepts while better preserving the model's original generation ability. The code is available at: http://github.com/ddgoodgood/TRCE. CAUTION: This paper includes model-generated content that may contain offensive material.

Summary

AI-Generated Summary

PDF31March 11, 2025