MOSAIC: Моделирование социального ИИ для распространения и регулирования контента в мультиагентных симуляциях
MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations
April 10, 2025
Авторы: Genglin Liu, Salman Rahman, Elisa Kreiss, Marzyeh Ghassemi, Saadia Gabriel
cs.AI
Аннотация
Мы представляем новую открытую платформу для моделирования социальных сетей MOSAIC, в которой генеративные языковые агенты предсказывают поведение пользователей, такое как лайки, репосты и жалобы на контент. Эта симуляция объединяет агентов на основе больших языковых моделей (LLM) с направленным социальным графом для анализа возникающих обманных поведений и лучшего понимания того, как пользователи определяют достоверность контента в онлайн-социальных сетях. Создавая представления пользователей на основе разнообразных детализированных персонажей, наша система позволяет проводить многопользовательские симуляции, моделирующие распространение контента и динамику вовлеченности в масштабе. В рамках этой платформы мы оцениваем три различные стратегии модерации контента при моделировании распространения дезинформации и обнаруживаем, что они не только снижают распространение недостоверного контента, но и повышают вовлеченность пользователей. Кроме того, мы анализируем траектории популярного контента в наших симуляциях и исследуем, действительно ли аргументированные рассуждения агентов о их социальных взаимодействиях соответствуют их коллективным моделям вовлеченности. Мы открываем исходный код нашего симуляционного программного обеспечения, чтобы стимулировать дальнейшие исследования в области искусственного интеллекта и социальных наук.
English
We present a novel, open-source social network simulation framework, MOSAIC,
where generative language agents predict user behaviors such as liking,
sharing, and flagging content. This simulation combines LLM agents with a
directed social graph to analyze emergent deception behaviors and gain a better
understanding of how users determine the veracity of online social content. By
constructing user representations from diverse fine-grained personas, our
system enables multi-agent simulations that model content dissemination and
engagement dynamics at scale. Within this framework, we evaluate three
different content moderation strategies with simulated misinformation
dissemination, and we find that they not only mitigate the spread of
non-factual content but also increase user engagement. In addition, we analyze
the trajectories of popular content in our simulations, and explore whether
simulation agents' articulated reasoning for their social interactions truly
aligns with their collective engagement patterns. We open-source our simulation
software to encourage further research within AI and social sciences.Summary
AI-Generated Summary