MOSAIC: Modellering van Sociale AI voor Contentverspreiding en Regulering in Multi-Agent Simulaties
MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations
April 10, 2025
Auteurs: Genglin Liu, Salman Rahman, Elisa Kreiss, Marzyeh Ghassemi, Saadia Gabriel
cs.AI
Samenvatting
We presenteren een nieuw, open-source simulatiekader voor sociale netwerken, MOSAIC, waarbij generatieve taalagentschappen gebruikersgedrag voorspellen, zoals het leuk vinden, delen en markeren van content. Deze simulatie combineert LLM-agentschappen met een gerichte sociale grafiek om opkomende misleidende gedragingen te analyseren en een beter inzicht te krijgen in hoe gebruikers de waarheidsgetrouwheid van online sociale content bepalen. Door gebruikersrepresentaties te construeren op basis van diverse, fijnmazige persona's, maakt ons systeem multi-agent simulaties mogelijk die de verspreiding van content en engagementdynamieken op grote schaal modelleren. Binnen dit kader evalueren we drie verschillende strategieën voor contentmoderatie met gesimuleerde verspreiding van desinformatie, en we ontdekken dat deze niet alleen de verspreiding van niet-feitelijke content verminderen, maar ook het gebruikersengagement vergroten. Daarnaast analyseren we de trajecten van populaire content in onze simulaties en onderzoeken we of de gearticuleerde redeneringen van de simulatieagentschappen voor hun sociale interacties daadwerkelijk overeenkomen met hun collectieve engagementpatronen. We maken onze simulatiesoftware open-source om verder onderzoek binnen AI en sociale wetenschappen te stimuleren.
English
We present a novel, open-source social network simulation framework, MOSAIC,
where generative language agents predict user behaviors such as liking,
sharing, and flagging content. This simulation combines LLM agents with a
directed social graph to analyze emergent deception behaviors and gain a better
understanding of how users determine the veracity of online social content. By
constructing user representations from diverse fine-grained personas, our
system enables multi-agent simulations that model content dissemination and
engagement dynamics at scale. Within this framework, we evaluate three
different content moderation strategies with simulated misinformation
dissemination, and we find that they not only mitigate the spread of
non-factual content but also increase user engagement. In addition, we analyze
the trajectories of popular content in our simulations, and explore whether
simulation agents' articulated reasoning for their social interactions truly
aligns with their collective engagement patterns. We open-source our simulation
software to encourage further research within AI and social sciences.