DeContext como Defensa: Edición Segura de Imágenes en Transformadores de Difusión
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
Autores: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
Resumen
Los modelos de difusión en contexto permiten a los usuarios modificar imágenes con una facilidad y realismo notables. Sin embargo, esta misma capacidad plantea serias preocupaciones sobre la privacidad: las imágenes personales pueden manipularse fácilmente para suplantar identidades, difundir desinformación u otros usos maliciosos, todo ello sin el consentimiento del propietario. Si bien trabajos anteriores han explorado perturbaciones en la entrada para protegerse del mal uso en la generación personalizada de imágenes a partir de texto, la robustez de los modelos modernos de gran escala basados en DiT en contexto sigue sin examinarse en gran medida. En este artículo, proponemos DeContext, un nuevo método para proteger las imágenes de entrada de la edición no autorizada en contexto. Nuestra idea clave es que la información contextual de la imagen fuente se propaga a la salida principalmente a través de las capas de atención multimodal. Al inyectar pequeñas perturbaciones dirigidas que debilitan estas rutas de atención cruzada, DeContext interrumpe este flujo y desacopla eficazmente el vínculo entre la entrada y la salida. Esta defensa simple es a la vez eficiente y robusta. Además, demostramos que los pasos iniciales de eliminación de ruido y bloques específicos del transformador dominan la propagación del contexto, lo que nos permite concentrar las perturbaciones donde más importan. Los experimentos en Flux Kontext y Step1X-Edit muestran que DeContext bloquea consistentemente las ediciones de imagen no deseadas mientras preserva la calidad visual. Estos resultados destacan la efectividad de las perturbaciones basadas en atención como una defensa poderosa contra la manipulación de imágenes.
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.