ChatPaper.aiChatPaper

AgentSocialBench: 인간 중심 에이전트 사회 네트워크의 개인정보 위험 평가

AgentSocialBench: Evaluating Privacy Risks in Human-Centered Agentic Social Networks

April 1, 2026
저자: Prince Zizhuang Wang, Shuli Jiang
cs.AI

초록

OpenClaw와 같은 맞춤형 지속적 LLM 에이전트 프레임워크의 부상으로, 사회적 네트워크 내에서 협력적인 AI 에이전트 팀이 다중 도메인에 걸쳐 개별 사용자를 지원하는 인간 중심 에이전트 사회 네트워크가 현실화되고 있습니다. 이러한 환경은 새로운 프라이버시 도전 과제를 야기합니다. 에이전트는 도메인 경계를 넘어 조정하고, 인간 간 중재를 수행하며, 다른 사용자의 에이전트와 상호작용해야 하는 동시에 민감한 개인 정보를 보호해야 합니다. 기존 연구에서 다중 에이전트 조정과 프라이버시 보존을 평가했으나, 인간 중심 에이전트 사회 네트워크의 역학 및 프라이버시 위험은 아직 탐구되지 않았습니다. 이를 위해 우리는 이 환경에서 프라이버시 위험을 체계적으로 평가하는 최초의 벤치마크인 AgentSocialBench를 소개합니다. 이 벤치마크는 계층적 민감도 라벨과 방향성 사회 그래프를 가진 현실적인 사용자 프로필을 기반으로, 양자 및 다자간 상호작용에 걸친 일곱 가지 범주의 시나리오로 구성됩니다. 우리의 실험은 에이전트 사회 네트워크의 프라이버시가 단일 에이전트 환경보다 근본적으로 더 어렵다는 것을 보여줍니다: (1) 에이전트가 정보 보호를 명시적으로 지시받은 경우에도 도메인 간 및 사용자 간 조정은 지속적인 정보 누출 압력을 생성하며, (2) 민감 정보를 추상화하는 방법을 에이전트에게 가르치는 프라이버시 지시는 역설적으로 해당 정보를 더 많이 논의하게 만듭니다(우리는 이를 추상화 패러독스라 명명함). 이러한 발견은 현재 LLM 에이전트가 인간 중심 에이전트 사회 네트워크에서 프라이버시를 보호할 강력한 메커니즘이 부족하며, 에이전트 중재 사회 조정이 현실 세계에 안전하게 배포되기 위해서는 프롬프트 엔지니어링을 넘어선 새로운 접근법이 필요함을 강조합니다.
English
With the rise of personalized, persistent LLM agent frameworks such as OpenClaw, human-centered agentic social networks in which teams of collaborative AI agents serve individual users in a social network across multiple domains are becoming a reality. This setting creates novel privacy challenges: agents must coordinate across domain boundaries, mediate between humans, and interact with other users' agents, all while protecting sensitive personal information. While prior work has evaluated multi-agent coordination and privacy preservation, the dynamics and privacy risks of human-centered agentic social networks remain unexplored. To this end, we introduce AgentSocialBench, the first benchmark to systematically evaluate privacy risk in this setting, comprising scenarios across seven categories spanning dyadic and multi-party interactions, grounded in realistic user profiles with hierarchical sensitivity labels and directed social graphs. Our experiments reveal that privacy in agentic social networks is fundamentally harder than in single-agent settings: (1) cross-domain and cross-user coordination creates persistent leakage pressure even when agents are explicitly instructed to protect information, (2) privacy instructions that teach agents how to abstract sensitive information paradoxically cause them to discuss it more (we call it abstraction paradox). These findings underscore that current LLM agents lack robust mechanisms for privacy preservation in human-centered agentic social networks, and that new approaches beyond prompt engineering are needed to make agent-mediated social coordination safe for real-world deployment.
PDF41April 7, 2026