AgentSocialBench: Bewertung von Datenschutzrisiken in menschenzentrierten agentenbasierten sozialen Netzwerken
AgentSocialBench: Evaluating Privacy Risks in Human-Centered Agentic Social Networks
April 1, 2026
Autoren: Prince Zizhuang Wang, Shuli Jiang
cs.AI
Zusammenfassung
Mit dem Aufkommen personalisierter, persistenter LLM-Agenten-Frameworks wie OpenClaw werden menschenzentrierte agentenbasierte soziale Netzwerke, in denen Teams kollaborativer KI-Agenten einzelne Nutzer in einem sozialen Netzwerk domainsübergreifend unterstützen, zunehmend Realität. Diese Umgebung birgt neuartige Datenschutzherausforderungen: Agenten müssen domainsübergreifend koordinieren, zwischen Menschen vermitteln und mit Agenten anderer Nutzer interagieren, und dabei stets sensible persönliche Informationen schützen. Während frühere Arbeiten Multi-Agenten-Koordination und Datenschutz untersucht haben, sind die Dynamiken und Datenschutzrisiken menschenzentrierter agentenbasierter sozialer Netzwerke noch unerforscht. Zu diesem Zweck stellen wir AgentSocialBench vor, den ersten Benchmark zur systematischen Bewertung von Datenschutzrisiken in diesem Kontext. Er umfasst Szenarien aus sieben Kategorien, die dyadische und Multi-Party-Interaktionen abdecken und auf realistischen Nutzerprofilen mit hierarchischen Sensitivitätslabels und gerichteten sozialen Graphen basieren. Unsere Experimente zeigen, dass Datenschutz in agentenbasierten sozialen Netzwerken grundlegend schwieriger ist als in Einzelagenten-Szenarien: (1) Domänen- und nutzerübergreifende Koordination erzeugt auch dann anhaltenden Druck zur Informationspreisgabe, wenn Agenten explizit angewiesen sind, Informationen zu schützen, (2) Datenschutzanweisungen, die Agenten beibringen, sensible Informationen zu abstrahieren, führen paradoxerweise dazu, dass sie häufiger darüber sprechen (wir nennen dies das Abstraktionsparadoxon). Diese Erkenntnisse unterstreichen, dass aktuelle LLM-Agenten über keine robusten Mechanismen für den Datenschutz in menschenzentrierten agentenbasierten sozialen Netzwerken verfügen und dass neue Ansätze jenseits von Prompt-Engineering erforderlich sind, um agentenvermittelte soziale Koordination für den realen Einsatz sicher zu machen.
English
With the rise of personalized, persistent LLM agent frameworks such as OpenClaw, human-centered agentic social networks in which teams of collaborative AI agents serve individual users in a social network across multiple domains are becoming a reality. This setting creates novel privacy challenges: agents must coordinate across domain boundaries, mediate between humans, and interact with other users' agents, all while protecting sensitive personal information. While prior work has evaluated multi-agent coordination and privacy preservation, the dynamics and privacy risks of human-centered agentic social networks remain unexplored. To this end, we introduce AgentSocialBench, the first benchmark to systematically evaluate privacy risk in this setting, comprising scenarios across seven categories spanning dyadic and multi-party interactions, grounded in realistic user profiles with hierarchical sensitivity labels and directed social graphs. Our experiments reveal that privacy in agentic social networks is fundamentally harder than in single-agent settings: (1) cross-domain and cross-user coordination creates persistent leakage pressure even when agents are explicitly instructed to protect information, (2) privacy instructions that teach agents how to abstract sensitive information paradoxically cause them to discuss it more (we call it abstraction paradox). These findings underscore that current LLM agents lack robust mechanisms for privacy preservation in human-centered agentic social networks, and that new approaches beyond prompt engineering are needed to make agent-mediated social coordination safe for real-world deployment.