FaceLinkGen: 프라이버시 보호 얼굴 인식에서 신원 정보 추출을 통한 식별자 유출 재고찰
FaceLinkGen: Rethinking Identity Leakage in Privacy-Preserving Face Recognition with Identity Extraction
February 2, 2026
저자: Wenqi Guo, Shan Du
cs.AI
초록
변환 기반 프라이버시 보호 얼굴 인식(PPFR)은 공격자와 악의적인 서비스 제공자로부터 얼굴 데이터를 숨긴 채 신원을 검증하는 것을 목표로 합니다. 기존 평가는 대부분 프라이버시를 PSNR과 SSIM으로 측정되는 픽셀 수준 재구성에 대한 저항으로 간주합니다. 본 연구에서는 이러한 재구성 중심 시각이 실패함을 보여줍니다. 우리는 보호된 템플릿에서 원본 픽셀을 복구하지 않고도 직접 연계/매칭 및 얼굴 재생성을 수행하는 신원 추출 공격인 FaceLinkGen을 제시합니다. 최근 3가지 PPFR 시스템에서 FaceLinkGen은 98.5% 이상의 매칭 정확도와 96% 이상의 재생성 성공률을 달성했으며, 제로에 가까운 지식 설정에서도 여전히 92% 이상의 매칭률과 94% 이상의 재생성률을 보였습니다. 이러한 결과는 PPFR 평가에서 널리 사용되는 픽셀 왜곡 메트릭과 실제 프라이버시 간의 구조적 격차를 드러냅니다. 우리는 시각적 난독화가 신원 정보를 외부 침입자와 신뢰할 수 없는 서비스 제공자 모두에게 광범위하게 노출시킨다는 것을 보여줍니다.
English
Transformation-based privacy-preserving face recognition (PPFR) aims to verify identities while hiding facial data from attackers and malicious service providers. Existing evaluations mostly treat privacy as resistance to pixel-level reconstruction, measured by PSNR and SSIM. We show that this reconstruction-centric view fails. We present FaceLinkGen, an identity extraction attack that performs linkage/matching and face regeneration directly from protected templates without recovering original pixels. On three recent PPFR systems, FaceLinkGen reaches over 98.5\% matching accuracy and above 96\% regeneration success, and still exceeds 92\% matching and 94\% regeneration in a near zero knowledge setting. These results expose a structural gap between pixel distortion metrics, which are widely used in PPFR evaluation, and real privacy. We show that visual obfuscation leaves identity information broadly exposed to both external intruders and untrusted service providers.