ChatPaper.aiChatPaper

PAAC: Privatsphäre-bewusste agentische Gerät-Cloud-Kollaboration

PAAC: Privacy-Aware Agentic Device-Cloud Collaboration

May 9, 2026
Autoren: Liangqi Yuan, Wenzhi Fang, Shiqiang Wang, Christopher G. Brinton
cs.AI

Zusammenfassung

Große Sprachmodelle (LLM) als Agenten stehen vor einem strukturellen Spannungsfeld: Cloud-Agenten bieten starke Argumentationsfähigkeiten, setzen jedoch Nutzerdaten offen, während lokale Agenten die Privatsphäre bewahren, aber auf Kosten der Gesamtleistung. Bestehende Gerät-Cloud-Architekturen behandeln diese Grenze als rechentechnische Aufteilung und nicht als Vertrauensgrenze, die für agentische Arbeitslasten geeignet ist; bestehende Sanitizer erzwingen eine Entscheidung zwischen politischer Flexibilität und der strukturellen Treue, die Werkzeugaufrufe erfordern. In dieser Arbeit entwickeln wir PAAC, ein privatsphärebewusstes agentisches Framework, das die Planer-Ausführer-Zerlegung mit der Gerät-Cloud-Grenze in Einklang bringt, sodass die Rollenspezialisierung selbst zum Privatsphäremechanismus wird. Der Cloud-Agent argumentiert über typisierte Platzhalter-Token, die die Argumentationsrolle jedes sensiblen Werts bewahren, während dessen Inhalt verworfen wird; der lokale Agent identifiziert sensible Textabschnitte und destilliert das Ausführungsergebnis jedes Schritts in kompakte Schlüsselergebnisse. Die Sanitisierung beschränkt das lokale LLM darauf, vorzuschlagen, welche Textabschnitte maskiert werden sollen, während ein deterministisches Register alle Substitutionen und Umkehrungen vornimmt, sodass Aktionen direkt auf dem Gerät ausführbar bleiben. In drei agentischen Benchmarks unter strengen Privatsphäreeinstellungen dominiert PAAC die Pareto-Grenze von Privatsphäre und Genauigkeit, verbessert die durchschnittliche Genauigkeit um 15–36 % und reduziert die durchschnittliche Datenlecks um das 2- bis 6-fache im Vergleich zu hochmodernen Gerät-Cloud-Baselines, mit den größten Vorteilen bei Privatsphärezielen außerhalb fester Entitätstaxonomien. Wir beobachten konsistente Verbesserungen in 17 zusätzlichen Benchmarks aus 10 Bereichen, darunter Mathematik, Naturwissenschaften und Finanzen.
English
Large language model (LLM) agents face a structural tension: cloud agents provide strong reasoning but expose user data, while on-device agents preserve privacy at the cost of overall capability. Existing device-cloud designs treat this boundary as a compute split rather than a trust boundary suited to agentic workloads, and existing sanitizers force a choice between policy flexibility and the structural fidelity tool calls require. In this work, we develop PAAC, a privacy-aware agentic framework that aligns planner--executor decomposition with the device-cloud boundary so that role specialization itself becomes the privacy mechanism. The cloud agent reasons over typed placeholder tokens that preserve each sensitive value's reasoning role while discarding its content, while the on-device agent identifies sensitive spans and distills each step's execution outcome into compact key findings. Sanitization confines the on-device LLM to proposing which spans to mask, while a deterministic registry performs all substitution and reversal, keeping actions directly executable on device. On three agentic benchmarks under strict privacy settings, PAAC dominates the Pareto frontier of privacy and accuracy, improving average accuracy by 15-36\% and reducing average leakage by 2-6times over state-of-the-art device-cloud baselines, with the largest margins on privacy targets outside fixed entity taxonomies. We find consistent improvements on 17 additional benchmarks spanning 10 domains, including math, science, and finance.
PDF11May 14, 2026