PAAC: Агентное взаимодействие устройств и облака с учетом конфиденциальности
PAAC: Privacy-Aware Agentic Device-Cloud Collaboration
May 9, 2026
Авторы: Liangqi Yuan, Wenzhi Fang, Shiqiang Wang, Christopher G. Brinton
cs.AI
Аннотация
Агенты на основе больших языковых моделей (LLM) сталкиваются со структурным противоречием: облачные агенты обеспечивают мощные рассуждения, но раскрывают пользовательские данные, тогда как локальные агенты сохраняют конфиденциальность ценой снижения общей функциональности. Существующие архитектуры устройство-облако рассматривают эту границу как разделение вычислительных ресурсов, а не как доверительную границу, подходящую для агентных нагрузок, а существующие санитайзеры вынуждают выбирать между гибкостью политик и структурной точностью, необходимой для вызовов инструментов. В данной работе мы разрабатываем PAAC — среду с учетом конфиденциальности для агентов, которая согласует декомпозицию на планировщик и исполнитель с границей между устройством и облаком, так что сама специализация ролей становится механизмом конфиденциальности. Облачный агент рассуждает на основе типизированных токенов-заполнителей, которые сохраняют роль каждого конфиденциального значения в рассуждениях, отбрасывая его содержание, тогда как локальный агент выявляет конфиденциальные сегменты и дистиллирует результат выполнения каждого шага в сжатые ключевые выводы. Санитизация ограничивает локальную LLM предложением маскируемых сегментов, в то время как детерминированное хранилище выполняет все подстановки и обратные преобразования, обеспечивая возможность непосредственного выполнения действий на устройстве. На трех агентных бенчмарках в условиях строгих требований конфиденциальности PAAC доминирует на границе Парето по конфиденциальности и точности, улучшая среднюю точность на 15–36% и снижая среднюю утечку в 2–6 раз по сравнению с современными базовыми решениями для архитектуры устройство-облако, причем наибольшие отрывы достигаются на целях конфиденциальности, выходящих за рамки фиксированных таксономий сущностей. Мы наблюдаем последовательные улучшения на 17 дополнительных бенчмарках, охватывающих 10 областей, включая математику, естественные науки и финансы.
English
Large language model (LLM) agents face a structural tension: cloud agents provide strong reasoning but expose user data, while on-device agents preserve privacy at the cost of overall capability. Existing device-cloud designs treat this boundary as a compute split rather than a trust boundary suited to agentic workloads, and existing sanitizers force a choice between policy flexibility and the structural fidelity tool calls require. In this work, we develop PAAC, a privacy-aware agentic framework that aligns planner--executor decomposition with the device-cloud boundary so that role specialization itself becomes the privacy mechanism. The cloud agent reasons over typed placeholder tokens that preserve each sensitive value's reasoning role while discarding its content, while the on-device agent identifies sensitive spans and distills each step's execution outcome into compact key findings. Sanitization confines the on-device LLM to proposing which spans to mask, while a deterministic registry performs all substitution and reversal, keeping actions directly executable on device. On three agentic benchmarks under strict privacy settings, PAAC dominates the Pareto frontier of privacy and accuracy, improving average accuracy by 15-36\% and reducing average leakage by 2-6times over state-of-the-art device-cloud baselines, with the largest margins on privacy targets outside fixed entity taxonomies. We find consistent improvements on 17 additional benchmarks spanning 10 domains, including math, science, and finance.