ChatPaper.aiChatPaper

개인 정보 보호를 고려한 보조 기능에서 맥락적 무결성을 운영화하는 방법

Operationalizing Contextual Integrity in Privacy-Conscious Assistants

August 5, 2024
저자: Sahra Ghalebikesabi, Eugene Bagdasaryan, Ren Yi, Itay Yona, Ilia Shumailov, Aneesh Pappu, Chongyang Shi, Laura Weidinger, Robert Stanforth, Leonard Berrada, Pushmeet Kohli, Po-Sen Huang, Borja Balle
cs.AI

초록

고급 AI 어시스턴트는 선두 LLM과 도구 액세스를 결합하여 사용자를 대신하여 복잡한 작업을 자율적으로 수행합니다. 이러한 어시스턴트의 유용성은 전자메일 및 문서와 같은 사용자 정보에 액세스할 수 있을 때 크게 향상될 수 있지만, 이는 사용자 감독 없이 어시스턴트가 부적절한 정보를 제3자와 공유할 우려를 불러일으킵니다. 정보 공유 어시스턴트를 개인 정보 보호 기대에 따라 행동하도록 유도하기 위해 우리는 맥락 무결성(CI)을 운용화하는 것을 제안합니다. 이는 특정 맥락에서 정보의 적절한 흐름과 개인 정보 보호를 동일시하는 프레임워크입니다. 특히, 우리는 어시스턴트의 정보 공유 행동을 CI 준수로 유도하기 위한 여러 전략을 설계하고 평가합니다. 우리의 평가는 합성 데이터와 인간 주석으로 구성된 새로운 형태의 벤치마크를 기반으로 하며, 선두 LLM에 CI 기반 추론을 수행하도록 유도하는 것이 우수한 결과를 도출한다는 것을 보여줍니다.
English
Advanced AI assistants combine frontier LLMs and tool access to autonomously perform complex tasks on behalf of users. While the helpfulness of such assistants can increase dramatically with access to user information including emails and documents, this raises privacy concerns about assistants sharing inappropriate information with third parties without user supervision. To steer information-sharing assistants to behave in accordance with privacy expectations, we propose to operationalize contextual integrity (CI), a framework that equates privacy with the appropriate flow of information in a given context. In particular, we design and evaluate a number of strategies to steer assistants' information-sharing actions to be CI compliant. Our evaluation is based on a novel form filling benchmark composed of synthetic data and human annotations, and it reveals that prompting frontier LLMs to perform CI-based reasoning yields strong results.

Summary

AI-Generated Summary

PDF52November 28, 2024