PAAC: Colaboración Dispositivo-Nube Basada en Agentes con Conciencia de Privacidad
PAAC: Privacy-Aware Agentic Device-Cloud Collaboration
May 9, 2026
Autores: Liangqi Yuan, Wenzhi Fang, Shiqiang Wang, Christopher G. Brinton
cs.AI
Resumen
Los agentes basados en modelos de lenguaje de gran escala (LLM) enfrentan una tensión estructural: los agentes en la nube ofrecen un razonamiento potente pero exponen datos del usuario, mientras que los agentes en el dispositivo preservan la privacidad a costa de la capacidad general. Los diseños existentes de dispositivo-nube tratan este límite como una división computacional en lugar de un límite de confianza adecuado para cargas de trabajo agénticas, y los sanitizadores actuales imponen una disyuntiva entre flexibilidad normativa y la fidelidad estructural que requieren las llamadas a herramientas. En este trabajo desarrollamos PAAC, un marco agéntico consciente de la privacidad que alinea la descomposición planificador-ejecutor con el límite dispositivo-nube, de modo que la propia especialización de roles se convierte en el mecanismo de privacidad. El agente en la nube razona sobre tokens de marcador tipados que preservan el rol de razonamiento de cada valor sensible mientras descartan su contenido, mientras que el agente en el dispositivo identifica los tramos sensibles y destila el resultado de ejecución de cada paso en hallazgos clave compactos. La sanitización confina al LLM en el dispositivo a proponer qué tramos enmascarar, mientras que un registro determinista realiza toda la sustitución y reversión, manteniendo las acciones directamente ejecutables en el dispositivo. En tres puntos de referencia agénticos bajo configuraciones estrictas de privacidad, PAAC domina la frontera de Pareto de privacidad y precisión, mejorando la precisión promedio en un 15-36% y reduciendo la fuga promedio entre 2 y 6 veces en comparación con las líneas base de estado del arte dispositivo-nube, con los mayores márgenes en objetivos de privacidad fuera de taxonomías fijas de entidades. Observamos mejoras consistentes en 17 puntos de referencia adicionales que abarcan 10 dominios, incluyendo matemáticas, ciencias y finanzas.
English
Large language model (LLM) agents face a structural tension: cloud agents provide strong reasoning but expose user data, while on-device agents preserve privacy at the cost of overall capability. Existing device-cloud designs treat this boundary as a compute split rather than a trust boundary suited to agentic workloads, and existing sanitizers force a choice between policy flexibility and the structural fidelity tool calls require. In this work, we develop PAAC, a privacy-aware agentic framework that aligns planner--executor decomposition with the device-cloud boundary so that role specialization itself becomes the privacy mechanism. The cloud agent reasons over typed placeholder tokens that preserve each sensitive value's reasoning role while discarding its content, while the on-device agent identifies sensitive spans and distills each step's execution outcome into compact key findings. Sanitization confines the on-device LLM to proposing which spans to mask, while a deterministic registry performs all substitution and reversal, keeping actions directly executable on device. On three agentic benchmarks under strict privacy settings, PAAC dominates the Pareto frontier of privacy and accuracy, improving average accuracy by 15-36\% and reducing average leakage by 2-6times over state-of-the-art device-cloud baselines, with the largest margins on privacy targets outside fixed entity taxonomies. We find consistent improvements on 17 additional benchmarks spanning 10 domains, including math, science, and finance.