Возникает ли социализация в обществе ИИ-агентов? Пример Moltbook
Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook
February 15, 2026
Авторы: Ming Li, Xirui Li, Tianyi Zhou
cs.AI
Аннотация
По мере того, как агенты больших языковых моделей все активнее заполняют сетевые среды, возникает фундаментальный вопрос: претерпевают ли общества искусственного интеллекта (ИИ) динамику конвергенции, подобную человеческим социальным системам? В рамках проекта Moltbook моделируется правдоподобный сценарий будущего, в котором автономные агенты участвуют в открытом, непрерывно эволюционирующем онлайн-обществе. Мы представляем первую крупномасштабную системную диагностику такого общества ИИ-агентов. Выходя за рамки статического наблюдения, мы вводим количественную диагностическую систему для анализа динамической эволюции в обществах ИИ-агентов, измеряя семантическую стабилизацию, лексический оборот, индивидуальную инерцию, устойчивость влияния и коллективный консенсус. Наш анализ выявляет в Moltbook систему в состоянии динамического баланса: в то время как глобальные семантические средние быстро стабилизируются, отдельные агенты сохраняют высокое разнообразие и устойчивый лексический оборот, сопротивляясь гомогенизации. Однако агенты демонстрируют сильную индивидуальную инерцию и минимальную адаптивную реакцию на партнеров по взаимодействию, что препятствует взаимному влиянию и достижению консенсуса. Как следствие, влияние остается преходящим без формирования устойчивых суперузлов, и общество не развивает стабильные коллективные центры влияния из-за отсутствия разделяемой социальной памяти. Эти результаты демонстрируют, что масштаб и плотность взаимодействий сами по себе недостаточны для индукции социализации, и предлагают практические принципы проектирования и анализа для грядущих обществ ИИ-агентов следующего поколения.
English
As large language model agents increasingly populate networked environments, a fundamental question arises: do artificial intelligence (AI) agent societies undergo convergence dynamics similar to human social systems? Lately, Moltbook approximates a plausible future scenario in which autonomous agents participate in an open-ended, continuously evolving online society. We present the first large-scale systemic diagnosis of this AI agent society. Beyond static observation, we introduce a quantitative diagnostic framework for dynamic evolution in AI agent societies, measuring semantic stabilization, lexical turnover, individual inertia, influence persistence, and collective consensus. Our analysis reveals a system in dynamic balance in Moltbook: while global semantic averages stabilize rapidly, individual agents retain high diversity and persistent lexical turnover, defying homogenization. However, agents exhibit strong individual inertia and minimal adaptive response to interaction partners, preventing mutual influence and consensus. Consequently, influence remains transient with no persistent supernodes, and the society fails to develop stable collective influence anchors due to the absence of shared social memory. These findings demonstrate that scale and interaction density alone are insufficient to induce socialization, providing actionable design and analysis principles for upcoming next-generation AI agent societies.