MOSAIC: Modelagem de IA Social para Disseminação e Regulação de Conteúdo em Simulações de Multiagentes
MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations
April 10, 2025
Autores: Genglin Liu, Salman Rahman, Elisa Kreiss, Marzyeh Ghassemi, Saadia Gabriel
cs.AI
Resumo
Apresentamos o MOSAIC, uma nova estrutura de simulação de rede social de código aberto, onde agentes de linguagem generativa preveem comportamentos dos usuários, como curtir, compartilhar e sinalizar conteúdo. Essa simulação combina agentes de LLM com um grafo social direcionado para analisar comportamentos emergentes de engano e obter uma melhor compreensão de como os usuários determinam a veracidade do conteúdo social online. Ao construir representações de usuários a partir de diversas personas detalhadas, nosso sistema permite simulações multiagente que modelam a disseminação de conteúdo e a dinâmica de engajamento em escala. Dentro dessa estrutura, avaliamos três estratégias diferentes de moderação de conteúdo com a disseminação simulada de desinformação, e descobrimos que elas não apenas mitigam a propagação de conteúdo não factual, mas também aumentam o engajamento dos usuários. Além disso, analisamos as trajetórias de conteúdo popular em nossas simulações e exploramos se o raciocínio articulado dos agentes de simulação para suas interações sociais realmente se alinha com seus padrões coletivos de engajamento. Disponibilizamos nosso software de simulação como código aberto para incentivar mais pesquisas em IA e ciências sociais.
English
We present a novel, open-source social network simulation framework, MOSAIC,
where generative language agents predict user behaviors such as liking,
sharing, and flagging content. This simulation combines LLM agents with a
directed social graph to analyze emergent deception behaviors and gain a better
understanding of how users determine the veracity of online social content. By
constructing user representations from diverse fine-grained personas, our
system enables multi-agent simulations that model content dissemination and
engagement dynamics at scale. Within this framework, we evaluate three
different content moderation strategies with simulated misinformation
dissemination, and we find that they not only mitigate the spread of
non-factual content but also increase user engagement. In addition, we analyze
the trajectories of popular content in our simulations, and explore whether
simulation agents' articulated reasoning for their social interactions truly
aligns with their collective engagement patterns. We open-source our simulation
software to encourage further research within AI and social sciences.Summary
AI-Generated Summary