DeContext como Defesa: Edição Segura de Imagens em Transformadores de Difusão
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
Autores: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
Resumo
Os modelos de difusão em contexto permitem que os usuários modifiquem imagens com notável facilidade e realismo. No entanto, esse mesmo poder levanta sérias preocupações quanto à privacidade: imagens pessoais podem ser facilmente manipuladas para falsificação de identidade, desinformação ou outros usos maliciosos, tudo sem o consentimento do proprietário. Embora trabalhos anteriores tenham explorado perturbações na entrada para proteção contra uso indevido na geração personalizada de texto para imagem, a robustez dos modelos modernos de grande escala baseados em DiT em contexto permanece amplamente não examinada. Neste artigo, propomos o DeContext, um novo método para proteger imagens de entrada contra edição não autorizada em contexto. Nossa principal percepção é que a informação contextual da imagem de origem propaga-se para a saída principalmente através das camadas de atenção multimodal. Ao injetar pequenas perturbações direcionadas que enfraquecem esses caminhos de atenção cruzada, o DeContext interrompe esse fluxo, desacoplando efetivamente a ligação entre a entrada e a saída. Esta defesa simples é ao mesmo tempo eficiente e robusta. Mostramos ainda que os passos iniciais de remoção de ruído e blocos específicos do transformador dominam a propagação do contexto, o que nos permite concentrar as perturbações onde elas são mais importantes. Experimentos no Flux Kontext e no Step1X-Edit mostram que o DeContext bloqueia consistentemente edições de imagem indesejadas, preservando a qualidade visual. Estes resultados destacam a eficácia das perturbações baseadas em atenção como uma defesa poderosa contra a manipulação de imagens.
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.