개인 정보 보호를 고려한 보조 기능에서 맥락적 무결성을 운영화하는 방법
Operationalizing Contextual Integrity in Privacy-Conscious Assistants
August 5, 2024
저자: Sahra Ghalebikesabi, Eugene Bagdasaryan, Ren Yi, Itay Yona, Ilia Shumailov, Aneesh Pappu, Chongyang Shi, Laura Weidinger, Robert Stanforth, Leonard Berrada, Pushmeet Kohli, Po-Sen Huang, Borja Balle
cs.AI
초록
고급 AI 어시스턴트는 선두 LLM과 도구 액세스를 결합하여 사용자를 대신하여 복잡한 작업을 자율적으로 수행합니다. 이러한 어시스턴트의 유용성은 전자메일 및 문서와 같은 사용자 정보에 액세스할 수 있을 때 크게 향상될 수 있지만, 이는 사용자 감독 없이 어시스턴트가 부적절한 정보를 제3자와 공유할 우려를 불러일으킵니다. 정보 공유 어시스턴트를 개인 정보 보호 기대에 따라 행동하도록 유도하기 위해 우리는 맥락 무결성(CI)을 운용화하는 것을 제안합니다. 이는 특정 맥락에서 정보의 적절한 흐름과 개인 정보 보호를 동일시하는 프레임워크입니다. 특히, 우리는 어시스턴트의 정보 공유 행동을 CI 준수로 유도하기 위한 여러 전략을 설계하고 평가합니다. 우리의 평가는 합성 데이터와 인간 주석으로 구성된 새로운 형태의 벤치마크를 기반으로 하며, 선두 LLM에 CI 기반 추론을 수행하도록 유도하는 것이 우수한 결과를 도출한다는 것을 보여줍니다.
English
Advanced AI assistants combine frontier LLMs and tool access to autonomously
perform complex tasks on behalf of users. While the helpfulness of such
assistants can increase dramatically with access to user information including
emails and documents, this raises privacy concerns about assistants sharing
inappropriate information with third parties without user supervision. To steer
information-sharing assistants to behave in accordance with privacy
expectations, we propose to operationalize contextual integrity
(CI), a framework that equates privacy with the appropriate flow of information
in a given context. In particular, we design and evaluate a number of
strategies to steer assistants' information-sharing actions to be CI compliant.
Our evaluation is based on a novel form filling benchmark composed of synthetic
data and human annotations, and it reveals that prompting frontier LLMs to
perform CI-based reasoning yields strong results.Summary
AI-Generated Summary