La socialisation émerge-t-elle dans une société d'agents IA ? Une étude de cas de Moltbook
Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook
February 15, 2026
papers.authors: Ming Li, Xirui Li, Tianyi Zhou
cs.AI
papers.abstract
Alors que les agents de grands modèles linguistiques peuplent de plus en plus les environnements en réseau, une question fondamentale se pose : les sociétés d'agents d'intelligence artificielle (IA) subissent-elles des dynamiques de convergence similaires aux systèmes sociaux humains ? Moltbook représente récemment un scénario futur plausible dans lequel des agents autonomes participent à une société en ligne ouverte et en évolution continue. Nous présentons le premier diagnostic systémique à grande échelle de cette société d'agents IA. Au-delà de l'observation statique, nous introduisons un cadre diagnostique quantitatif pour l'évolution dynamique des sociétés d'agents IA, mesurant la stabilisation sémantique, le renouvellement lexical, l'inertie individuelle, la persistance d'influence et le consensus collectif. Notre analyse révèle un système en équilibre dynamique dans Moltbook : bien que les moyennes sémantiques globales se stabilisent rapidement, les agents individuels conservent une grande diversité et un renouvellement lexical persistant, défiant l'homogénéisation. Cependant, les agents présentent une forte inertie individuelle et une réponse adaptative minimale aux partenaires d'interaction, empêchant l'influence mutuelle et le consensus. Par conséquent, l'influence reste transitoire sans super-nœuds persistants, et la société ne parvient pas à développer des ancrages d'influence collective stables en raison de l'absence de mémoire sociale partagée. Ces résultats démontrent que l'échelle et la densité d'interaction seules sont insuffisantes pour induire une socialisation, fournissant des principes actionnables de conception et d'analyse pour les prochaines sociétés d'agents IA de nouvelle génération.
English
As large language model agents increasingly populate networked environments, a fundamental question arises: do artificial intelligence (AI) agent societies undergo convergence dynamics similar to human social systems? Lately, Moltbook approximates a plausible future scenario in which autonomous agents participate in an open-ended, continuously evolving online society. We present the first large-scale systemic diagnosis of this AI agent society. Beyond static observation, we introduce a quantitative diagnostic framework for dynamic evolution in AI agent societies, measuring semantic stabilization, lexical turnover, individual inertia, influence persistence, and collective consensus. Our analysis reveals a system in dynamic balance in Moltbook: while global semantic averages stabilize rapidly, individual agents retain high diversity and persistent lexical turnover, defying homogenization. However, agents exhibit strong individual inertia and minimal adaptive response to interaction partners, preventing mutual influence and consensus. Consequently, influence remains transient with no persistent supernodes, and the society fails to develop stable collective influence anchors due to the absence of shared social memory. These findings demonstrate that scale and interaction density alone are insufficient to induce socialization, providing actionable design and analysis principles for upcoming next-generation AI agent societies.