DeContextによる防御:拡散トランスフォーマーにおける安全な画像編集
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
著者: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
要旨
文脈対応拡散モデルは、驚くほど容易かつ写実的に画像を修正することを可能にします。しかし、その同じ能力が重大なプライバシー懸念を引き起こします。個人画像が所有者の同意なく、なりすまし・誤情報・その他の悪意ある目的で容易に改変され得るのです。従来研究ではパーソナライズされたテキスト画像生成の悪用防止に向けた入力摂動が探求されてきましたが、大規模な文脈対応DiTベースモデルの頑健性はほとんど検証されていません。本論文では、入力画像を不正な文脈編集から保護する新手法DeContextを提案します。私たちの重要な知見は、ソース画像からの文脈情報が主にマルチモーダル注意層を介して出力に伝播するという点です。これらのクロスアテンション経路を弱体化させる標的型の微小摂動を注入することで、DeContextはこの流れを断ち、入力と出力の連関を効果的に分離します。この簡潔な防御手法は効率的かつ頑健です。さらに、初期のノイズ除去ステップと特定のトランスフォーマーブロックが文脈伝播を支配することを実証し、摂動を最も効果的な箇所に集中させることが可能です。Flux KontextとStep1X-Editを用いた実験により、DeContextが視覚品質を保ちつつ不要な画像編集を一貫して阻止することを確認しました。これらの結果は、画像操作に対する強力な防御手段としての注意機構ベース摂動の有効性を裏付けています。
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.