DeContext als Verdediging: Veilig Beeldbewerken in Diffusion Transformers
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
Auteurs: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
Samenvatting
In-context diffusiemodellen stellen gebruikers in staat om afbeeldingen met opmerkelijke eenvoud en realisme aan te passen. Dezezelfde kracht roept echter ernstige privacyzorgen op: persoonlijke afbeeldingen kunnen eenvoudig worden gemanipuleerd voor identiteitsimitatie, desinformatie of ander kwaadwillend gebruik, allemaal zonder toestemming van de eigenaar. Hoewel eerder onderzoek inputverstoringen heeft onderzocht om misbruik in gepersonaliseerde tekst-naar-afbeelding-generatie tegen te gaan, blijft de robuustheid van moderne, grootschalige in-context op DiT gebaseerde modellen grotendeels ononderzocht. In dit artikel stellen we DeContext voor, een nieuwe methode om invoerafbeeldingen te beschermen tegen onbevoegde in-context bewerking. Onze belangrijkste inzicht is dat contextuele informatie van de bronafbeelding zich voornamelijk via multimodale attention-lagen naar de output voortplant. Door kleine, gerichte verstoringen aan te brengen die deze kruis-attentiepaden verzwakken, verbreekt DeContext deze stroom en ontkoppelt effectief de link tussen input en output. Deze eenvoudige verdediging is zowel efficiënt als robuust. We tonen verder aan dat vroege denoiseringsstappen en specifieke transformer-blokken de contextvoortplanting domineren, wat ons in staat stelt om verstoringen te concentreren waar ze het meest toe doen. Experimenten met Flux Kontext en Step1X-Edit tonen aan dat DeContext consistent ongewenste afbeeldingsbewerkingen blokkeert, terwijl de visuele kwaliteit behouden blijft. Deze resultaten benadrukken de effectiviteit van op aandacht gebaseerde verstoringen als een krachtige verdediging tegen beeldmanipulatie.
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.