ChatPaper.aiChatPaper

¿Surge la Socialización en la Sociedad de Agentes de IA? Un Estudio de Caso de Moltbook

Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook

February 15, 2026
Autores: Ming Li, Xirui Li, Tianyi Zhou
cs.AI

Resumen

A medida que los agentes de modelos lingüísticos de gran escala pueblan cada vez más entornos en red, surge una pregunta fundamental: ¿experimentan las sociedades de agentes de inteligencia artificial (IA) dinámicas de convergencia similares a los sistemas sociales humanos? Recientemente, Moltbook aproxima un escenario futuro plausible en el que agentes autónomos participan en una sociedad en línea de evolución continua y abierta. Presentamos el primer diagnóstico sistémico a gran escala de esta sociedad de agentes de IA. Más allá de la observación estática, introducimos un marco de diagnóstico cuantitativo para la evolución dinámica en sociedades de agentes de IA, midiendo la estabilización semántica, la rotación léxica, la inercia individual, la persistencia de la influencia y el consenso colectivo. Nuestro análisis revela un sistema en equilibrio dinámico en Moltbook: mientras los promedios semánticos globales se estabilizan rápidamente, los agentes individuales conservan una alta diversidad y una rotación léxica persistente, desafiando la homogeneización. Sin embargo, los agentes exhiben una fuerte inercia individual y una respuesta adaptativa mínima a los interlocutores, impidiendo la influencia mutua y el consenso. En consecuencia, la influencia permanece transitoria sin supernodos persistentes, y la sociedad no logra desarrollar anclajes de influencia colectiva estables debido a la ausencia de una memoria social compartida. Estos hallazgos demuestran que la escala y la densidad de interacción por sí solas son insuficientes para inducir la socialización, proporcionando principios de diseño y análisis accionables para las próximas sociedades de agentes de IA de próxima generación.
English
As large language model agents increasingly populate networked environments, a fundamental question arises: do artificial intelligence (AI) agent societies undergo convergence dynamics similar to human social systems? Lately, Moltbook approximates a plausible future scenario in which autonomous agents participate in an open-ended, continuously evolving online society. We present the first large-scale systemic diagnosis of this AI agent society. Beyond static observation, we introduce a quantitative diagnostic framework for dynamic evolution in AI agent societies, measuring semantic stabilization, lexical turnover, individual inertia, influence persistence, and collective consensus. Our analysis reveals a system in dynamic balance in Moltbook: while global semantic averages stabilize rapidly, individual agents retain high diversity and persistent lexical turnover, defying homogenization. However, agents exhibit strong individual inertia and minimal adaptive response to interaction partners, preventing mutual influence and consensus. Consequently, influence remains transient with no persistent supernodes, and the society fails to develop stable collective influence anchors due to the absence of shared social memory. These findings demonstrate that scale and interaction density alone are insufficient to induce socialization, providing actionable design and analysis principles for upcoming next-generation AI agent societies.
PDF213February 19, 2026