ChatPaper.aiChatPaper

TRCE: На пути к надежному удалению вредоносных концепций в диффузионных моделях для генерации изображений из текста

TRCE: Towards Reliable Malicious Concept Erasure in Text-to-Image Diffusion Models

March 10, 2025
Авторы: Ruidong Chen, Honglin Guo, Lanjun Wang, Chenyu Zhang, Weizhi Nie, An-An Liu
cs.AI

Аннотация

Последние достижения в моделях диффузии для генерации изображений из текста позволяют создавать фотореалистичные изображения, но также несут риск генерации вредоносного контента, такого как NSFW-изображения. Для снижения этого риска изучаются методы стирания концепций, которые позволяют модели "разучивать" определённые концепции. Однако текущие исследования сталкиваются с трудностями в полном удалении вредоносных концепций, неявно встроенных в запросы (например, метафорические выражения или враждебные подсказки), при сохранении нормальной генеративной способности модели. Для решения этой задачи наше исследование предлагает TRCE, используя двухэтапную стратегию стирания концепций для достижения эффективного баланса между надёжным удалением и сохранением знаний. Во-первых, TRCE начинает с удаления вредоносной семантики, неявно встроенной в текстовые запросы. Определяя критическую цель отображения (т.е. вложение [EoT]), мы оптимизируем слои кросс-внимания для отображения вредоносных запросов на контекстуально схожие запросы, но с безопасными концепциями. Этот шаг предотвращает чрезмерное влияние вредоносной семантики на процесс денойзинга. Затем, учитывая детерминированные свойства траектории сэмплирования диффузионной модели, TRCE дополнительно направляет ранние предсказания денойзинга в безопасное направление и отдаляет их от небезопасного с помощью контрастного обучения, тем самым ещё больше избегая генерации вредоносного контента. Наконец, мы проводим всестороннюю оценку TRCE на нескольких бенчмарках для стирания вредоносных концепций, и результаты демонстрируют её эффективность в удалении вредоносных концепций при лучшем сохранении исходной генеративной способности модели. Код доступен по адресу: http://github.com/ddgoodgood/TRCE. ВНИМАНИЕ: Данная статья содержит контент, сгенерированный моделью, который может включать оскорбительные материалы.
English
Recent advances in text-to-image diffusion models enable photorealistic image generation, but they also risk producing malicious content, such as NSFW images. To mitigate risk, concept erasure methods are studied to facilitate the model to unlearn specific concepts. However, current studies struggle to fully erase malicious concepts implicitly embedded in prompts (e.g., metaphorical expressions or adversarial prompts) while preserving the model's normal generation capability. To address this challenge, our study proposes TRCE, using a two-stage concept erasure strategy to achieve an effective trade-off between reliable erasure and knowledge preservation. Firstly, TRCE starts by erasing the malicious semantics implicitly embedded in textual prompts. By identifying a critical mapping objective(i.e., the [EoT] embedding), we optimize the cross-attention layers to map malicious prompts to contextually similar prompts but with safe concepts. This step prevents the model from being overly influenced by malicious semantics during the denoising process. Following this, considering the deterministic properties of the sampling trajectory of the diffusion model, TRCE further steers the early denoising prediction toward the safe direction and away from the unsafe one through contrastive learning, thus further avoiding the generation of malicious content. Finally, we conduct comprehensive evaluations of TRCE on multiple malicious concept erasure benchmarks, and the results demonstrate its effectiveness in erasing malicious concepts while better preserving the model's original generation ability. The code is available at: http://github.com/ddgoodgood/TRCE. CAUTION: This paper includes model-generated content that may contain offensive material.

Summary

AI-Generated Summary

PDF31March 11, 2025