ChatPaper.aiChatPaper

Операционализация контекстуальной целостности в ассистентах, соблюдающих конфиденциальность.

Operationalizing Contextual Integrity in Privacy-Conscious Assistants

August 5, 2024
Авторы: Sahra Ghalebikesabi, Eugene Bagdasaryan, Ren Yi, Itay Yona, Ilia Shumailov, Aneesh Pappu, Chongyang Shi, Laura Weidinger, Robert Stanforth, Leonard Berrada, Pushmeet Kohli, Po-Sen Huang, Borja Balle
cs.AI

Аннотация

Продвинутые искусственные интеллектуальные ассистенты объединяют передовые языковые модели с доступом к инструментам для автономного выполнения сложных задач от имени пользователей. В то время как полезность таких ассистентов может значительно возрасти при доступе к информации пользователя, включая электронные письма и документы, это вызывает опасения о конфиденциальности, связанные с возможностью ассистентов передавать неподходящую информацию третьим лицам без контроля со стороны пользователя. Для направления действий ассистентов по обмену информацией в соответствии с ожиданиями конфиденциальности мы предлагаем операционализировать контекстуальную целостность (CI), фреймворк, который связывает конфиденциальность с соответствующим потоком информации в определенном контексте. В частности, мы разрабатываем и оцениваем ряд стратегий для направления действий ассистентов по обмену информацией в соответствии с CI. Наша оценка основана на новом бенчмарке заполнения форм, состоящем из синтетических данных и аннотаций людей, и показывает, что подсказывание передовым языковым моделям проведение рассуждений на основе CI дает хорошие результаты.
English
Advanced AI assistants combine frontier LLMs and tool access to autonomously perform complex tasks on behalf of users. While the helpfulness of such assistants can increase dramatically with access to user information including emails and documents, this raises privacy concerns about assistants sharing inappropriate information with third parties without user supervision. To steer information-sharing assistants to behave in accordance with privacy expectations, we propose to operationalize contextual integrity (CI), a framework that equates privacy with the appropriate flow of information in a given context. In particular, we design and evaluate a number of strategies to steer assistants' information-sharing actions to be CI compliant. Our evaluation is based on a novel form filling benchmark composed of synthetic data and human annotations, and it reveals that prompting frontier LLMs to perform CI-based reasoning yields strong results.

Summary

AI-Generated Summary

PDF52November 28, 2024