Temps de Parler : Agents LLM pour la Communication Asynchrone en Groupe dans les Jeux de Mafia
Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games
June 5, 2025
Auteurs: Niv Eckhaus, Uri Berger, Gabriel Stanovsky
cs.AI
Résumé
Les LLM (modèles de langage de grande taille) sont principalement utilisés dans des communications synchrones, où un utilisateur humain et un modèle interagissent en alternant les tours de parole. En revanche, de nombreux contextes réels sont intrinsèquement asynchrones. Par exemple, dans les discussions de groupe, les réunions d'équipe en ligne ou les jeux sociaux, il n'existe pas de notion inhérente de tours de parole ; par conséquent, la décision de quand intervenir constitue une part cruciale du processus décisionnel des participants. Dans ce travail, nous développons un agent LLM asynchrone adaptatif qui, en plus de déterminer quoi dire, décide également quand le dire. Pour évaluer notre agent, nous collectons un ensemble de données unique provenant de parties en ligne du jeu Mafia, incluant à la fois des participants humains et notre agent asynchrone. Globalement, notre agent performe au même niveau que les joueurs humains, tant en termes de performance dans le jeu que dans sa capacité à s'intégrer parmi les autres joueurs humains. Notre analyse montre que le comportement de l'agent pour décider quand intervenir reflète étroitement les schémas humains, bien que des différences émergent dans le contenu des messages. Nous publions toutes nos données et notre code pour soutenir et encourager des recherches supplémentaires visant à des communications asynchrones plus réalistes entre agents LLM. Ce travail ouvre la voie à l'intégration des LLM dans des contextes de groupe humains réalistes, allant de l'assistance dans les discussions d'équipe aux environnements éducatifs et professionnels où des dynamiques sociales complexes doivent être naviguées.
English
LLMs are used predominantly in synchronous communication, where a human user
and a model communicate in alternating turns. In contrast, many real-world
settings are inherently asynchronous. For example, in group chats, online team
meetings, or social games, there is no inherent notion of turns; therefore, the
decision of when to speak forms a crucial part of the participant's decision
making. In this work, we develop an adaptive asynchronous LLM-agent which, in
addition to determining what to say, also decides when to say it. To evaluate
our agent, we collect a unique dataset of online Mafia games, including both
human participants, as well as our asynchronous agent. Overall, our agent
performs on par with human players, both in game performance, as well as in its
ability to blend in with the other human players. Our analysis shows that the
agent's behavior in deciding when to speak closely mirrors human patterns,
although differences emerge in message content. We release all our data and
code to support and encourage further research for more realistic asynchronous
communication between LLM agents. This work paves the way for integration of
LLMs into realistic human group settings, from assistance in team discussions
to educational and professional environments where complex social dynamics must
be navigated.