DeContext как защита: безопасное редактирование изображений в диффузионных трансформаторах
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
Авторы: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
Аннотация
Модели диффузии в контексте позволяют пользователям с невероятной легкостью и реалистичностью редактировать изображения. Однако та же самая мощь порождает серьезные проблемы конфиденциальности: личные фотографии можно легко изменять для подмены личности, распространения дезинформации или иного злонамеренного использования, причем все это — без согласия владельца. В то время как предыдущие работы исследовали вносимые на входе возмущения для защиты от неправомерного использования в персонализированной генерации изображений по тексту, устойчивость современных крупномасштабных контекстных моделей на основе DiT (Diffusion Transformer) остается в значительной степени неисследованной. В данной статье мы предлагаем DeContext — новый метод защиты исходных изображений от несанкционированного контекстного редактирования. Наше ключевое наблюдение заключается в том, что контекстная информация из исходного изображения передается на выход преимущественно через мультимодальные слои внимания. Внося небольшие целенаправленные возмущения, которые ослабляют эти перекрестные связи внимания, DeContext разрывает этот поток, эффективно разделяя связь между входом и выходом. Эта простая защита является одновременно эффективной и надежной. Мы также показываем, что ранние этапы шумоподавления и определенные трансформаторные блоки доминируют в распространении контекста, что позволяет нам сосредоточить возмущения там, где они наиболее важны. Эксперименты на Flux Kontext и Step1X-Edit демонстрируют, что DeContext последовательно блокирует нежелательное редактирование изображений, сохраняя визуальное качество. Эти результаты подчеркивают эффективность возмущений на основе механизма внимания как мощной защиты от манипуляций с изображениями.
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.