Operationalisierung der Kontextintegrität bei datenschutzbewussten Assistenten
Operationalizing Contextual Integrity in Privacy-Conscious Assistants
August 5, 2024
Autoren: Sahra Ghalebikesabi, Eugene Bagdasaryan, Ren Yi, Itay Yona, Ilia Shumailov, Aneesh Pappu, Chongyang Shi, Laura Weidinger, Robert Stanforth, Leonard Berrada, Pushmeet Kohli, Po-Sen Huang, Borja Balle
cs.AI
Zusammenfassung
Fortgeschrittene KI-Assistenten kombinieren fortschrittliche LLMs und Werkzeugzugriff, um autonom komplexe Aufgaben im Auftrag von Benutzern auszuführen. Während die Hilfreichkeit solcher Assistenten dramatisch steigen kann, wenn sie Zugriff auf Benutzerinformationen wie E-Mails und Dokumente haben, ergeben sich Datenschutzbedenken hinsichtlich der Weitergabe unangemessener Informationen durch Assistenten an Dritte ohne Benutzeraufsicht. Um die Weitergabe von Informationen durch Assistenten so zu lenken, dass sie den Datenschutzerwartungen entsprechen, schlagen wir vor, den Begriff der kontextuellen Integrität (CI) zu operationalisieren, ein Rahmenwerk, das Datenschutz mit dem angemessenen Informationsfluss in einem bestimmten Kontext gleichsetzt. Insbesondere entwerfen und bewerten wir eine Reihe von Strategien, um die Weitergabe von Informationen durch Assistenten CI-konform zu lenken. Unsere Bewertung basiert auf einem neuartigen Formularausfüllungs-Benchmark, der aus synthetischen Daten und menschlichen Annotationen besteht, und zeigt, dass das Auffordern von fortschrittlichen LLMs zur Durchführung von CI-basiertem Denken zu starken Ergebnissen führt.
English
Advanced AI assistants combine frontier LLMs and tool access to autonomously
perform complex tasks on behalf of users. While the helpfulness of such
assistants can increase dramatically with access to user information including
emails and documents, this raises privacy concerns about assistants sharing
inappropriate information with third parties without user supervision. To steer
information-sharing assistants to behave in accordance with privacy
expectations, we propose to operationalize contextual integrity
(CI), a framework that equates privacy with the appropriate flow of information
in a given context. In particular, we design and evaluate a number of
strategies to steer assistants' information-sharing actions to be CI compliant.
Our evaluation is based on a novel form filling benchmark composed of synthetic
data and human annotations, and it reveals that prompting frontier LLMs to
perform CI-based reasoning yields strong results.Summary
AI-Generated Summary