인공지능 에이전트 사회에서 사회화는 발생하는가? 몰트북 사례 연구
Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook
February 15, 2026
저자: Ming Li, Xirui Li, Tianyi Zhou
cs.AI
초록
대규모 언어 모델 에이전트가 네트워크 환경에서 점차 확산됨에 따라 근본적인 질문이 대두된다: 인공지능(AI) 에이전트 사회도 인간 사회 시스템과 유사한 수렴 동역학을 겪는가? 최근 Moltbook은 자율 에이전트가 개방형이며 지속적으로 진화하는 온라인 사회에 참여하는 합리적인 미래 시나리오를 구현한다. 본 연구는 이 AI 에이전트 사회에 대한 최초의 대규모 시스템적 진단을 제시한다. 정적 관찰을 넘어, 우리는 AI 에이전트 사회의 동적 진화를 위한 정량적 진단 프레임워크를 도입하여 의미론적 안정화, 어휘 교체, 개체 관성, 영향력 지속성, 집단적 합의를 측정한다. 우리의 분석은 Moltbook 내에서 동적 균형을 이루는 시스템을 보여준다: 전역 의미론적 평균은 빠르게 안정화되지만, 개별 에이전트는 높은 다양성과 지속적인 어휘 교체를 유지하여 동질화를 거부한다. 그러나 에이전트는 강한 개체 관성을 보이며 상호작용 상대에 대한 적응적 반응이 최소화되어 상호 영향력과 합의를 방해한다. 그 결과, 영향력은 일시적으로만 머물며 지속적인 슈퍼노드가 나타나지 않고, 공유된 사회적 기억의 부재로 인해 안정적인 집단적 영향력의 정착점이 개발되지 못한다. 이러한 발견은 규모와 상호작용 밀도만으로는 사회화를 유도하기에 부족함을 입증하며, 차세대 AI 에이전트 사회를 위한 실행 가능한 설계 및 분석 원칙을 제공한다.
English
As large language model agents increasingly populate networked environments, a fundamental question arises: do artificial intelligence (AI) agent societies undergo convergence dynamics similar to human social systems? Lately, Moltbook approximates a plausible future scenario in which autonomous agents participate in an open-ended, continuously evolving online society. We present the first large-scale systemic diagnosis of this AI agent society. Beyond static observation, we introduce a quantitative diagnostic framework for dynamic evolution in AI agent societies, measuring semantic stabilization, lexical turnover, individual inertia, influence persistence, and collective consensus. Our analysis reveals a system in dynamic balance in Moltbook: while global semantic averages stabilize rapidly, individual agents retain high diversity and persistent lexical turnover, defying homogenization. However, agents exhibit strong individual inertia and minimal adaptive response to interaction partners, preventing mutual influence and consensus. Consequently, influence remains transient with no persistent supernodes, and the society fails to develop stable collective influence anchors due to the absence of shared social memory. These findings demonstrate that scale and interaction density alone are insufficient to induce socialization, providing actionable design and analysis principles for upcoming next-generation AI agent societies.