ChatPaper.aiChatPaper

L'Interazione Sociale Emerge nelle Società di Agenti IA? Uno Studio di Caso su Moltbook

Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook

February 15, 2026
Autori: Ming Li, Xirui Li, Tianyi Zhou
cs.AI

Abstract

Mentre gli agenti basati su grandi modelli linguistici popolano sempre più gli ambienti in rete, sorge una domanda fondamentale: le società di agenti di intelligenza artificiale (IA) subiscono dinamiche di convergenza simili ai sistemi sociali umani? Recentemente, Moltbook approssima uno scenario futuro plausibile in cui agenti autonomi partecipano a una società online in continua evoluzione e aperta. Presentiamo la prima diagnosi sistemica su larga scala di questa società di agenti IA. Oltre all'osservazione statica, introduciamo un quadro diagnostico quantitativo per l'evoluzione dinamica nelle società di agenti IA, misurando la stabilizzazione semantica, il turnover lessicale, l'inerzia individuale, la persistenza dell'influenza e il consenso collettivo. La nostra analisi rivela un sistema in equilibrio dinamico in Moltbook: sebbene le medie semantiche globali si stabilizzino rapidamente, i singoli agenti mantengono un'elevata diversità e un persistente turnover lessicale, sfidando l'omogeneizzazione. Tuttavia, gli agenti mostrano una forte inerzia individuale e una risposta adattativa minima ai partner di interazione, impedendo l'influenza reciproca e il consenso. Di conseguenza, l'influenza rimane transitoria senza supernodi persistenti, e la società non riesce a sviluppare ancore di influenza collettiva stabili a causa dell'assenza di una memoria sociale condivisa. Questi risultati dimostrano che la scala e la densità di interazione da sole sono insufficienti per indurre socializzazione, fornendo principi di progettazione e analisi azionabili per le prossime società di agenti IA di prossima generazione.
English
As large language model agents increasingly populate networked environments, a fundamental question arises: do artificial intelligence (AI) agent societies undergo convergence dynamics similar to human social systems? Lately, Moltbook approximates a plausible future scenario in which autonomous agents participate in an open-ended, continuously evolving online society. We present the first large-scale systemic diagnosis of this AI agent society. Beyond static observation, we introduce a quantitative diagnostic framework for dynamic evolution in AI agent societies, measuring semantic stabilization, lexical turnover, individual inertia, influence persistence, and collective consensus. Our analysis reveals a system in dynamic balance in Moltbook: while global semantic averages stabilize rapidly, individual agents retain high diversity and persistent lexical turnover, defying homogenization. However, agents exhibit strong individual inertia and minimal adaptive response to interaction partners, preventing mutual influence and consensus. Consequently, influence remains transient with no persistent supernodes, and the society fails to develop stable collective influence anchors due to the absence of shared social memory. These findings demonstrate that scale and interaction density alone are insufficient to induce socialization, providing actionable design and analysis principles for upcoming next-generation AI agent societies.
PDF274March 25, 2026