디콘텍스트를 통한 방어: 디퓨전 트랜스포머에서의 안전한 이미지 편집
DeContext as Defense: Safe Image Editing in Diffusion Transformers
December 18, 2025
저자: Linghui Shen, Mingyue Cui, Xingyi Yang
cs.AI
초록
컨텍스트 내 확산 모델은 사용자가 놀라울 정도로 쉽고 사실적으로 이미지를 수정할 수 있게 합니다. 그러나 동일한 능력은 심각한 프라이버시 문제를 제기합니다. 개인 이미지가 소유자의 동의 없이 쉽게 신원 사칭, 허위 정보 유포 또는 기타 악의적 목적으로 조작될 수 있기 때문입니다. 개인화된 텍스트-이미지 생성에서 오용을 방지하기 위한 입력 변형을 탐구한 기존 연구가 있지만, 최신 대규모 컨텍스트 내 DiT 기반 모델의 견고성은 대부분 검증되지 않은 상태입니다. 본 논문에서는 입력 이미지를 무단 컨텍스트 내 편집으로부터 보호하는 새로운 방법인 DeContext를 제안합니다. 우리의 핵심 통찰은 소스 이미지의 컨텍스트 정보가 주로 다중 모달 어텐션 계층을 통해 출력으로 전파된다는 점입니다. 이러한 교차 어텐션 경로를 약화시키는 작고 표적화된 섭동을 주입함으로써 DeContext는 이 흐름을 차단하고 입력과 출력 간의 연결을 효과적으로 분리합니다. 이 간단한 방어 메커니즘은 효율적이고 견고합니다. 또한 우리는 초기 노이즈 제거 단계와 특정 트랜스포머 블록이 컨텍스트 전파를 지배한다는 점을 보여주며, 이를 통해 섭동을 가장 중요한 부분에 집중할 수 있습니다. Flux Kontext와 Step1X-Edit에 대한 실험 결과, DeContext가 시각적 품질을 유지하면서 원치 않는 이미지 편집을 지속적으로 차단함을 확인했습니다. 이러한 결과는 어텐션 기반 섭동이 이미지 조작에 대한 강력한 방어 수단으로 효과적임을 보여줍니다.
English
In-context diffusion models allow users to modify images with remarkable ease and realism. However, the same power raises serious privacy concerns: personal images can be easily manipulated for identity impersonation, misinformation, or other malicious uses, all without the owner's consent. While prior work has explored input perturbations to protect against misuse in personalized text-to-image generation, the robustness of modern, large-scale in-context DiT-based models remains largely unexamined. In this paper, we propose DeContext, a new method to safeguard input images from unauthorized in-context editing. Our key insight is that contextual information from the source image propagates to the output primarily through multimodal attention layers. By injecting small, targeted perturbations that weaken these cross-attention pathways, DeContext breaks this flow, effectively decouples the link between input and output. This simple defense is both efficient and robust. We further show that early denoising steps and specific transformer blocks dominate context propagation, which allows us to concentrate perturbations where they matter most. Experiments on Flux Kontext and Step1X-Edit show that DeContext consistently blocks unwanted image edits while preserving visual quality. These results highlight the effectiveness of attention-based perturbations as a powerful defense against image manipulation.