ChatPaper.aiChatPaper

AgentSocialBench: 人間中心のエージェント型ソーシャルネットワークにおけるプライバシーリスク評価

AgentSocialBench: Evaluating Privacy Risks in Human-Centered Agentic Social Networks

April 1, 2026
著者: Prince Zizhuang Wang, Shuli Jiang
cs.AI

要旨

OpenClawに代表されるパーソナライズされた永続的LLMエージェントフレームワークの台頭により、ソーシャルネットワーク内で複数ドメインにわたり個人ユーザーにサービスを提供する協調的AIエージェントチームからなる、人間中心のエージェント型ソーシャルネットワークが現実のものとなりつつある。この環境は新たなプライバシー上の課題を生み出す。すなわち、エージェントはドメインの境界を越えて調整を行い、人間同士の仲介をし、他のユーザーのエージェントと相互作用しなければならないが、その全ての過程で機微な個人情報を保護する必要がある。従来研究ではマルチエージェントの調整とプライバシー保護が評価されてきたが、人間中心のエージェント型ソーシャルネットワークにおける動態とプライバシーリスクは未解明のままである。この目的のために、我々はこの設定におけるプライバシーリスクを体系的に評価する初のベンチマークであるAgentSocialBenchを提案する。これは、現実的なユーザープロファイル(階層的な機密性ラベルと有向ソーシャルグラフに基づく)に基づいた、二者間および多者間の相互作用にわたる7つのカテゴリのシナリオで構成される。我々の実験により、エージェント型ソーシャルネットワークにおけるプライバシー保護は、単一エージェント設定に比べて本質的に困難であることが明らかになった:(1) ドメイン間およびユーザー間の調整は、エージェントが明示的に情報保護を指示されていた場合でも、持続的な情報漏洩の圧力を生み出す、(2) 機密情報を抽象化する方法をエージェントに教えるプライバシー指示は、逆説的に、それについてより多く議論させる結果を招く(我々はこれを抽象化のパラドックスと呼ぶ)。これらの発見は、現在のLLMエージェントには人間中心のエージェント型ソーシャルネットワークにおける堅牢なプライバシー保護メカニズムが欠如しており、現実世界での安全な展開のためには、プロンプトエンジニアリングを超えた新たなアプローチが必要であることを強調している。
English
With the rise of personalized, persistent LLM agent frameworks such as OpenClaw, human-centered agentic social networks in which teams of collaborative AI agents serve individual users in a social network across multiple domains are becoming a reality. This setting creates novel privacy challenges: agents must coordinate across domain boundaries, mediate between humans, and interact with other users' agents, all while protecting sensitive personal information. While prior work has evaluated multi-agent coordination and privacy preservation, the dynamics and privacy risks of human-centered agentic social networks remain unexplored. To this end, we introduce AgentSocialBench, the first benchmark to systematically evaluate privacy risk in this setting, comprising scenarios across seven categories spanning dyadic and multi-party interactions, grounded in realistic user profiles with hierarchical sensitivity labels and directed social graphs. Our experiments reveal that privacy in agentic social networks is fundamentally harder than in single-agent settings: (1) cross-domain and cross-user coordination creates persistent leakage pressure even when agents are explicitly instructed to protect information, (2) privacy instructions that teach agents how to abstract sensitive information paradoxically cause them to discuss it more (we call it abstraction paradox). These findings underscore that current LLM agents lack robust mechanisms for privacy preservation in human-centered agentic social networks, and that new approaches beyond prompt engineering are needed to make agent-mediated social coordination safe for real-world deployment.
PDF41April 7, 2026