Tiempo para Hablar: Agentes de LLM para la Comunicación Grupal Asincrónica en Juegos de Mafia
Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games
June 5, 2025
Autores: Niv Eckhaus, Uri Berger, Gabriel Stanovsky
cs.AI
Resumen
Los LLM se utilizan predominantemente en comunicación sincrónica, donde un usuario humano y un modelo se comunican en turnos alternos. En contraste, muchos entornos del mundo real son inherentemente asincrónicos. Por ejemplo, en chats grupales, reuniones de equipo en línea o juegos sociales, no existe una noción inherente de turnos; por lo tanto, la decisión de cuándo hablar forma una parte crucial de la toma de decisiones del participante. En este trabajo, desarrollamos un agente LLM asincrónico adaptativo que, además de determinar qué decir, también decide cuándo decirlo. Para evaluar nuestro agente, recopilamos un conjunto de datos único de juegos de Mafia en línea, que incluye tanto a participantes humanos como a nuestro agente asincrónico. En general, nuestro agente se desempeña a la par de los jugadores humanos, tanto en el rendimiento del juego como en su capacidad para integrarse con los demás jugadores humanos. Nuestro análisis muestra que el comportamiento del agente al decidir cuándo hablar refleja de cerca los patrones humanos, aunque surgen diferencias en el contenido de los mensajes. Publicamos todos nuestros datos y código para apoyar y fomentar más investigaciones sobre una comunicación asincrónica más realista entre agentes LLM. Este trabajo allana el camino para la integración de LLM en entornos grupales humanos realistas, desde la asistencia en discusiones de equipo hasta entornos educativos y profesionales donde se deben navegar dinámicas sociales complejas.
English
LLMs are used predominantly in synchronous communication, where a human user
and a model communicate in alternating turns. In contrast, many real-world
settings are inherently asynchronous. For example, in group chats, online team
meetings, or social games, there is no inherent notion of turns; therefore, the
decision of when to speak forms a crucial part of the participant's decision
making. In this work, we develop an adaptive asynchronous LLM-agent which, in
addition to determining what to say, also decides when to say it. To evaluate
our agent, we collect a unique dataset of online Mafia games, including both
human participants, as well as our asynchronous agent. Overall, our agent
performs on par with human players, both in game performance, as well as in its
ability to blend in with the other human players. Our analysis shows that the
agent's behavior in deciding when to speak closely mirrors human patterns,
although differences emerge in message content. We release all our data and
code to support and encourage further research for more realistic asynchronous
communication between LLM agents. This work paves the way for integration of
LLMs into realistic human group settings, from assistance in team discussions
to educational and professional environments where complex social dynamics must
be navigated.