EgoPrivacy: 一人称カメラが語るあなたのプライバシーとは?
EgoPrivacy: What Your First-Person Camera Says About You?
June 13, 2025
著者: Yijiang Li, Genpei Zhang, Jiacheng Cheng, Yi Li, Xiaojun Shan, Dashan Gao, Jiancheng Lyu, Yuan Li, Ning Bi, Nuno Vasconcelos
cs.AI
要旨
ウェアラブルカメラの急速な普及に伴い、エゴセントリックビデオのプライバシーに関する重大な懸念が提起されているが、これまでの研究では、カメラ装着者に対する独特のプライバシー脅威がほとんど見過ごされてきた。本研究では、核心的な疑問を探る:装着者の一人称視点ビデオから、どの程度のプライバシー情報が推測可能か?我々は、エゴセントリックビジョンにおけるプライバシーリスクを包括的に評価するための初の大規模ベンチマークであるEgoPrivacyを導入する。EgoPrivacyは、人口統計的、個人的、状況的の3種類のプライバシーをカバーし、細粒度(例:装着者の識別)から粗粒度(例:年齢層)までのプライバシー情報を復元することを目的とした7つのタスクを定義する。エゴセントリックビジョンに内在するプライバシー脅威をさらに強調するため、外部のエクソセントリックビデオプールからのエゴ・トゥ・エクソ検索を活用して、人口統計的プライバシー攻撃の効果を高める新たな攻撃戦略であるRetrieval-Augmented Attackを提案する。すべての脅威モデル下で可能な異なる攻撃の広範な比較が提示され、装着者のプライバシー情報が漏洩に対して非常に脆弱であることが示されている。例えば、我々の調査結果によれば、基盤モデルはゼロショット設定においても、識別、シーン、性別、人種などの属性を70-80%の精度で復元することで、装着者のプライバシーを効果的に侵害することができる。我々のコードとデータはhttps://github.com/williamium3000/ego-privacyで利用可能である。
English
While the rapid proliferation of wearable cameras has raised significant
concerns about egocentric video privacy, prior work has largely overlooked the
unique privacy threats posed to the camera wearer. This work investigates the
core question: How much privacy information about the camera wearer can be
inferred from their first-person view videos? We introduce EgoPrivacy, the
first large-scale benchmark for the comprehensive evaluation of privacy risks
in egocentric vision. EgoPrivacy covers three types of privacy (demographic,
individual, and situational), defining seven tasks that aim to recover private
information ranging from fine-grained (e.g., wearer's identity) to
coarse-grained (e.g., age group). To further emphasize the privacy threats
inherent to egocentric vision, we propose Retrieval-Augmented Attack, a novel
attack strategy that leverages ego-to-exo retrieval from an external pool of
exocentric videos to boost the effectiveness of demographic privacy attacks. An
extensive comparison of the different attacks possible under all threat models
is presented, showing that private information of the wearer is highly
susceptible to leakage. For instance, our findings indicate that foundation
models can effectively compromise wearer privacy even in zero-shot settings by
recovering attributes such as identity, scene, gender, and race with 70-80%
accuracy. Our code and data are available at
https://github.com/williamium3000/ego-privacy.