MOSAIC: マルチエージェントシミュレーションにおけるコンテンツ拡散と規制のための社会的AIモデリング
MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations
April 10, 2025
著者: Genglin Liu, Salman Rahman, Elisa Kreiss, Marzyeh Ghassemi, Saadia Gabriel
cs.AI
要旨
我々は、生成型言語エージェントが「いいね」やシェア、コンテンツのフラグ付けといったユーザー行動を予測する、新規のオープンソースソーシャルネットワークシミュレーションフレームワーク「MOSAIC」を提案します。このシミュレーションは、LLMエージェントと有向ソーシャルグラフを組み合わせることで、創発的な欺瞞行動を分析し、ユーザーがオンラインソーシャルコンテンツの真偽をどのように判断するかをより深く理解することを目指しています。多様で細かいペルソナからユーザー表現を構築することで、我々のシステムはコンテンツの拡散とエンゲージメントのダイナミクスを大規模にモデル化するマルチエージェントシミュレーションを可能にします。このフレームワーク内で、模擬的な誤情報拡散を用いて3つの異なるコンテンツモデレーション戦略を評価し、それらが非事実的コンテンツの拡散を抑制するだけでなく、ユーザーエンゲージメントを向上させることを発見しました。さらに、シミュレーション内での人気コンテンツの軌跡を分析し、シミュレーションエージェントがソーシャルインタラクションに対して表明する推論が、彼らの集合的なエンゲージメントパターンと真に一致しているかどうかを探ります。我々は、AIと社会科学分野におけるさらなる研究を促進するため、シミュレーションソフトウェアをオープンソース化します。
English
We present a novel, open-source social network simulation framework, MOSAIC,
where generative language agents predict user behaviors such as liking,
sharing, and flagging content. This simulation combines LLM agents with a
directed social graph to analyze emergent deception behaviors and gain a better
understanding of how users determine the veracity of online social content. By
constructing user representations from diverse fine-grained personas, our
system enables multi-agent simulations that model content dissemination and
engagement dynamics at scale. Within this framework, we evaluate three
different content moderation strategies with simulated misinformation
dissemination, and we find that they not only mitigate the spread of
non-factual content but also increase user engagement. In addition, we analyze
the trajectories of popular content in our simulations, and explore whether
simulation agents' articulated reasoning for their social interactions truly
aligns with their collective engagement patterns. We open-source our simulation
software to encourage further research within AI and social sciences.Summary
AI-Generated Summary