DeContext come Difesa: Modifica Sicura delle Immagini nei Diffusion Transformer
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
Autori: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
Abstract
I modelli di diffusione in-context consentono agli utenti di modificare le immagini con notevole facilità e realismo. Tuttavia, questa stessa potenza solleva serie preoccupazioni in materia di privacy: le immagini personali possono essere facilmente manipolate per impersonare identità, diffondere disinformazione o altri usi malevoli, tutto senza il consenso del proprietario. Sebbene lavori precedenti abbiano esplorato perturbazioni in input per proteggere dall'uso improprio nella generazione personalizzata di immagini da testo, la robustezza dei moderni modelli su larga scala basati su DiT in-context rimane in gran parte non esaminata. In questo articolo, proponiamo DeContext, un nuovo metodo per salvaguardare le immagini di input da modifiche in-context non autorizzate. La nostra intuizione chiave è che le informazioni contestuali dall'immagine sorgente si propagano all'output principalmente attraverso gli strati di attenzione multimodale. Iniettando piccole perturbazioni mirate che indeboliscono questi percorsi di cross-attenzione, DeContext interrompe questo flusso, disaccoppiando efficacemente il collegamento tra input e output. Questa semplice difesa è sia efficiente che robusta. Dimostriamo inoltre che i primi passi di denoising e specifici blocchi del transformer dominano la propagazione del contesto, il che ci permette di concentrare le perturbazioni dove sono più efficaci. Esperimenti su Flux Kontext e Step1X-Edit mostrano che DeContext blocca costantemente le modifiche indesiderate delle immagini preservando la qualità visiva. Questi risultati evidenziano l'efficacia delle perturbazioni basate sull'attenzione come potente difesa contro la manipolazione delle immagini.
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.