MOSAIC: Modellierung sozialer KI für Inhaltsverbreitung und -regulierung in Multi-Agenten-Simulationen
MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations
April 10, 2025
Autoren: Genglin Liu, Salman Rahman, Elisa Kreiss, Marzyeh Ghassemi, Saadia Gabriel
cs.AI
Zusammenfassung
Wir stellen MOSAIC vor, ein neuartiges, quelloffenes Framework zur Simulation sozialer Netzwerke, in dem generative Sprachagenten Nutzerverhalten wie das Liken, Teilen und Melden von Inhalten vorhersagen. Diese Simulation kombiniert LLM-Agenten mit einem gerichteten sozialen Graphen, um aufkommende Täuschungsverhalten zu analysieren und ein besseres Verständnis dafür zu gewinnen, wie Nutzer die Glaubwürdigkeit von Inhalten in sozialen Netzwerken bestimmen. Durch die Konstruktion von Nutzerrepräsentationen aus diversen, feingranularen Personas ermöglicht unser System Multi-Agenten-Simulationen, die die Verbreitung von Inhalten und Engagement-Dynamiken in großem Maßstab modellieren. Innerhalb dieses Frameworks evaluieren wir drei verschiedene Strategien zur Inhaltsmoderation mit simulierter Fehlinformationsverbreitung und stellen fest, dass diese nicht nur die Verbreitung nicht-faktischer Inhalte reduzieren, sondern auch das Nutzerengagement steigern. Zusätzlich analysieren wir die Verläufe populärer Inhalte in unseren Simulationen und untersuchen, ob die von den Simulationsagenten artikulierten Begründungen für ihre sozialen Interaktionen tatsächlich mit ihren kollektiven Engagement-Mustern übereinstimmen. Wir stellen unsere Simulationssoftware als Open Source zur Verfügung, um weitere Forschung in den Bereichen KI und Sozialwissenschaften zu fördern.
English
We present a novel, open-source social network simulation framework, MOSAIC,
where generative language agents predict user behaviors such as liking,
sharing, and flagging content. This simulation combines LLM agents with a
directed social graph to analyze emergent deception behaviors and gain a better
understanding of how users determine the veracity of online social content. By
constructing user representations from diverse fine-grained personas, our
system enables multi-agent simulations that model content dissemination and
engagement dynamics at scale. Within this framework, we evaluate three
different content moderation strategies with simulated misinformation
dissemination, and we find that they not only mitigate the spread of
non-factual content but also increase user engagement. In addition, we analyze
the trajectories of popular content in our simulations, and explore whether
simulation agents' articulated reasoning for their social interactions truly
aligns with their collective engagement patterns. We open-source our simulation
software to encourage further research within AI and social sciences.Summary
AI-Generated Summary