Hora de Conversar: Agentes de LLM para Comunicação Assíncrona em Grupo em Jogos de Mafia
Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games
June 5, 2025
Autores: Niv Eckhaus, Uri Berger, Gabriel Stanovsky
cs.AI
Resumo
Os LLMs são usados predominantemente em comunicação síncrona, onde um usuário humano e um modelo se comunicam em turnos alternados. Em contraste, muitos cenários do mundo real são inerentemente assíncronos. Por exemplo, em chats de grupo, reuniões de equipe online ou jogos sociais, não há uma noção inerente de turnos; portanto, a decisão de quando falar forma uma parte crucial da tomada de decisão do participante. Neste trabalho, desenvolvemos um agente LLM assíncrono adaptativo que, além de determinar o que dizer, também decide quando dizê-lo. Para avaliar nosso agente, coletamos um conjunto de dados único de jogos online de Mafia, incluindo tanto participantes humanos quanto nosso agente assíncrono. No geral, nosso agente tem um desempenho equivalente ao dos jogadores humanos, tanto no desempenho do jogo quanto em sua capacidade de se integrar com os outros jogadores humanos. Nossa análise mostra que o comportamento do agente ao decidir quando falar reflete de perto os padrões humanos, embora surjam diferenças no conteúdo das mensagens. Disponibilizamos todos os nossos dados e código para apoiar e incentivar mais pesquisas para uma comunicação assíncrona mais realista entre agentes LLM. Este trabalho abre caminho para a integração de LLMs em cenários realistas de grupos humanos, desde a assistência em discussões de equipe até ambientes educacionais e profissionais onde dinâmicas sociais complexas devem ser navegadas.
English
LLMs are used predominantly in synchronous communication, where a human user
and a model communicate in alternating turns. In contrast, many real-world
settings are inherently asynchronous. For example, in group chats, online team
meetings, or social games, there is no inherent notion of turns; therefore, the
decision of when to speak forms a crucial part of the participant's decision
making. In this work, we develop an adaptive asynchronous LLM-agent which, in
addition to determining what to say, also decides when to say it. To evaluate
our agent, we collect a unique dataset of online Mafia games, including both
human participants, as well as our asynchronous agent. Overall, our agent
performs on par with human players, both in game performance, as well as in its
ability to blend in with the other human players. Our analysis shows that the
agent's behavior in deciding when to speak closely mirrors human patterns,
although differences emerge in message content. We release all our data and
code to support and encourage further research for more realistic asynchronous
communication between LLM agents. This work paves the way for integration of
LLMs into realistic human group settings, from assistance in team discussions
to educational and professional environments where complex social dynamics must
be navigated.