MOSAIC: Modelización de IA Social para la Diseminación y Regulación de Contenidos en Simulaciones Multiagente
MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations
April 10, 2025
Autores: Genglin Liu, Salman Rahman, Elisa Kreiss, Marzyeh Ghassemi, Saadia Gabriel
cs.AI
Resumen
Presentamos MOSAIC, un novedoso marco de simulación de redes sociales de código abierto, donde agentes de lenguaje generativo predicen comportamientos de usuarios como dar "me gusta", compartir y marcar contenido. Esta simulación combina agentes de LLM con un grafo social dirigido para analizar comportamientos emergentes de engaño y comprender mejor cómo los usuarios determinan la veracidad del contenido en redes sociales. Al construir representaciones de usuarios a partir de diversas personalidades detalladas, nuestro sistema permite simulaciones multiagente que modelan la diseminación de contenido y las dinámicas de interacción a gran escala. Dentro de este marco, evaluamos tres estrategias diferentes de moderación de contenido con diseminación simulada de desinformación, y descubrimos que no solo mitigan la propagación de contenido no factual, sino que también aumentan la participación de los usuarios. Además, analizamos las trayectorias del contenido popular en nuestras simulaciones y exploramos si el razonamiento articulado de los agentes de simulación para sus interacciones sociales realmente se alinea con sus patrones colectivos de participación. Liberamos nuestro software de simulación como código abierto para fomentar más investigaciones en IA y ciencias sociales.
English
We present a novel, open-source social network simulation framework, MOSAIC,
where generative language agents predict user behaviors such as liking,
sharing, and flagging content. This simulation combines LLM agents with a
directed social graph to analyze emergent deception behaviors and gain a better
understanding of how users determine the veracity of online social content. By
constructing user representations from diverse fine-grained personas, our
system enables multi-agent simulations that model content dissemination and
engagement dynamics at scale. Within this framework, we evaluate three
different content moderation strategies with simulated misinformation
dissemination, and we find that they not only mitigate the spread of
non-factual content but also increase user engagement. In addition, we analyze
the trajectories of popular content in our simulations, and explore whether
simulation agents' articulated reasoning for their social interactions truly
aligns with their collective engagement patterns. We open-source our simulation
software to encourage further research within AI and social sciences.