ChatPaper.aiChatPaper

검색 증대 생성에서의 지식 추출 공격 및 방어 기법 벤치마킹

Benchmarking Knowledge-Extraction Attack and Defense on Retrieval-Augmented Generation

February 10, 2026
저자: Zhisheng Qi, Utkarsh Sahu, Li Ma, Haoyu Han, Ryan Rossi, Franck Dernoncourt, Mahantesh Halappanavar, Nesreen Ahmed, Yushun Dong, Yue Zhao, Yu Zhang, Yu Wang
cs.AI

초록

검색 증대 생성(RAG)은 기업용 챗봇, 의료 지원 시스템, 에이전트 메모리 관리 등 지식 집약적 애플리케이션의 핵심 기술로 자리 잡았습니다. 그러나 최근 연구에 따르면 지식 추출 공격이 악의적으로 구성된 질의를 통해 민감한 지식 베이스 내용을 복구할 수 있어, 지식 재산권 침해 및 개인정보 유출에 대한 심각한 우려가 제기되고 있습니다. 기존 연구에서는 개별 공격 및 방어 기법을 탐구했으나, 이질적인 검색 임베딩 방식, 다양한 생성 모델, 비표준화된 평가 지표와 불일치하는 데이터셋에 기반한 분석으로 인해 연구 현황이 파편화되어 있습니다. 이러한 격차를 해결하기 위해 본 논문에서는 RAG 시스템에 대한 지식 추출 공격 최초의 체계적 벤치마크를 소개합니다. 저자의 벤치마크는 다양한 공격 및 방어 전략, 대표적인 검색 임베딩 모델, 오픈소스와 클로즈드소스 생성기를 포괄하며, 다중 데이터셋에 걸쳐 표준화된 프로토콜로 통합 실험 프레임워크 하에 평가를 수행합니다. 실험 환경을 통합하고 재현 가능하며 비교 가능한 평가를 제공함으로써, 이 벤치마크는 신흥 지식 추출 위협에 대응하는 개인정보 보호 RAG 시스템 개발을 위한 실행 가능한 통찰과 실용적 기반을 마련합니다. 구현 코드는 여기에서 확인할 수 있습니다.
English
Retrieval-Augmented Generation (RAG) has become a cornerstone of knowledge-intensive applications, including enterprise chatbots, healthcare assistants, and agentic memory management. However, recent studies show that knowledge-extraction attacks can recover sensitive knowledge-base content through maliciously crafted queries, raising serious concerns about intellectual property theft and privacy leakage. While prior work has explored individual attack and defense techniques, the research landscape remains fragmented, spanning heterogeneous retrieval embeddings, diverse generation models, and evaluations based on non-standardized metrics and inconsistent datasets. To address this gap, we introduce the first systematic benchmark for knowledge-extraction attacks on RAG systems. Our benchmark covers a broad spectrum of attack and defense strategies, representative retrieval embedding models, and both open- and closed-source generators, all evaluated under a unified experimental framework with standardized protocols across multiple datasets. By consolidating the experimental landscape and enabling reproducible, comparable evaluation, this benchmark provides actionable insights and a practical foundation for developing privacy-preserving RAG systems in the face of emerging knowledge extraction threats. Our code is available here.
PDF12February 18, 2026