ChatPaper.aiChatPaper

PAAC : Collaboration Appareil-Cloud Sensible à la Vie Privée et Agentique

PAAC: Privacy-Aware Agentic Device-Cloud Collaboration

May 9, 2026
Auteurs: Liangqi Yuan, Wenzhi Fang, Shiqiang Wang, Christopher G. Brinton
cs.AI

Résumé

Les agents basés sur de grands modèles de langage (LLM) sont confrontés à une tension structurelle : les agents cloud offrent un raisonnement puissant mais exposent les données des utilisateurs, tandis que les agents sur appareil préservent la vie privée au détriment des capacités globales. Les conceptions appareil-cloud existantes traitent cette frontière comme une division de calcul plutôt que comme une limite de confiance adaptée aux charges de travail agentiques, et les sanitiseurs existants imposent un choix entre la flexibilité des politiques et la fidélité structurelle requise par les appels d’outils. Dans ce travail, nous développons PAAC, un cadre agentique respectueux de la vie privée qui aligne la décomposition planificateur-exécuteur avec la frontière appareil-cloud, de sorte que la spécialisation des rôles devienne elle-même le mécanisme de confidentialité. L’agent cloud raisonne sur des jetons d’espace réservé typés qui préservent le rôle de raisonnement de chaque valeur sensible tout en écartant son contenu, tandis que l’agent sur appareil identifie les portées sensibles et distille le résultat d’exécution de chaque étape en résultats clés compacts. La sanitisation confine le LLM sur appareil à proposer les portées à masquer, tandis qu’un registre déterministe effectue toutes les substitutions et inversions, permettant aux actions d’être directement exécutables sur l’appareil. Sur trois benchmarks agentiques sous des paramètres stricts de confidentialité, PAAC domine la frontière de Pareto entre confidentialité et précision, améliorant la précision moyenne de 15 à 36 % et réduisant la fuite moyenne de 2 à 6 fois par rapport aux meilleures références appareil-cloud existantes, avec les marges les plus importantes sur les cibles de confidentialité en dehors des taxonomies d’entités fixes. Nous constatons des améliorations cohérentes sur 17 benchmarks supplémentaires couvrant 10 domaines, notamment les mathématiques, les sciences et la finance.
English
Large language model (LLM) agents face a structural tension: cloud agents provide strong reasoning but expose user data, while on-device agents preserve privacy at the cost of overall capability. Existing device-cloud designs treat this boundary as a compute split rather than a trust boundary suited to agentic workloads, and existing sanitizers force a choice between policy flexibility and the structural fidelity tool calls require. In this work, we develop PAAC, a privacy-aware agentic framework that aligns planner--executor decomposition with the device-cloud boundary so that role specialization itself becomes the privacy mechanism. The cloud agent reasons over typed placeholder tokens that preserve each sensitive value's reasoning role while discarding its content, while the on-device agent identifies sensitive spans and distills each step's execution outcome into compact key findings. Sanitization confines the on-device LLM to proposing which spans to mask, while a deterministic registry performs all substitution and reversal, keeping actions directly executable on device. On three agentic benchmarks under strict privacy settings, PAAC dominates the Pareto frontier of privacy and accuracy, improving average accuracy by 15-36\% and reducing average leakage by 2-6times over state-of-the-art device-cloud baselines, with the largest margins on privacy targets outside fixed entity taxonomies. We find consistent improvements on 17 additional benchmarks spanning 10 domains, including math, science, and finance.
PDF11May 14, 2026