Operacionalizando a Integridade Contextual em Assistentes Conscientes da Privacidade
Operationalizing Contextual Integrity in Privacy-Conscious Assistants
August 5, 2024
Autores: Sahra Ghalebikesabi, Eugene Bagdasaryan, Ren Yi, Itay Yona, Ilia Shumailov, Aneesh Pappu, Chongyang Shi, Laura Weidinger, Robert Stanforth, Leonard Berrada, Pushmeet Kohli, Po-Sen Huang, Borja Balle
cs.AI
Resumo
Assistentes avançados de IA combinam LLMs de ponta e acesso a ferramentas para realizar autonomamente tarefas complexas em nome dos usuários. Embora a utilidade desses assistentes possa aumentar drasticamente com o acesso às informações do usuário, incluindo e-mails e documentos, isso levanta preocupações com a privacidade, pois os assistentes podem compartilhar informações inadequadas com terceiros sem supervisão do usuário. Para orientar os assistentes na partilha de informações a se comportarem de acordo com as expectativas de privacidade, propomos operacionalizar a integridade contextual (CI), um framework que equipara privacidade ao fluxo apropriado de informações em um determinado contexto. Em particular, projetamos e avaliamos uma série de estratégias para orientar as ações de compartilhamento de informações dos assistentes a serem compatíveis com a CI. Nossa avaliação é baseada em um novo benchmark de preenchimento de formulários composto por dados sintéticos e anotações humanas, e revela que orientar os LLMs de ponta a realizar raciocínio baseado na CI produz resultados sólidos.
English
Advanced AI assistants combine frontier LLMs and tool access to autonomously
perform complex tasks on behalf of users. While the helpfulness of such
assistants can increase dramatically with access to user information including
emails and documents, this raises privacy concerns about assistants sharing
inappropriate information with third parties without user supervision. To steer
information-sharing assistants to behave in accordance with privacy
expectations, we propose to operationalize contextual integrity
(CI), a framework that equates privacy with the appropriate flow of information
in a given context. In particular, we design and evaluate a number of
strategies to steer assistants' information-sharing actions to be CI compliant.
Our evaluation is based on a novel form filling benchmark composed of synthetic
data and human annotations, and it reveals that prompting frontier LLMs to
perform CI-based reasoning yields strong results.Summary
AI-Generated Summary