ChatPaper.aiChatPaper

Tempo di Parlare: Agenti LLM per la Comunicazione Asincrona di Gruppo nei Giochi di Mafia

Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games

June 5, 2025
Autori: Niv Eckhaus, Uri Berger, Gabriel Stanovsky
cs.AI

Abstract

I LLM vengono utilizzati prevalentemente in contesti di comunicazione sincrona, in cui un utente umano e un modello comunicano a turni alternati. Al contrario, molti scenari del mondo reale sono intrinsecamente asincroni. Ad esempio, nelle chat di gruppo, nelle riunioni di team online o nei giochi sociali, non esiste una nozione intrinseca di turni; pertanto, la decisione di quando intervenire costituisce una parte cruciale del processo decisionale del partecipante. In questo lavoro, sviluppiamo un agente LLM asincrono adattativo che, oltre a determinare cosa dire, decide anche quando dirlo. Per valutare il nostro agente, raccogliamo un dataset unico di partite online di Mafia, che include sia partecipanti umani sia il nostro agente asincrono. Nel complesso, il nostro agente si comporta alla pari con i giocatori umani, sia in termini di prestazioni di gioco, sia nella sua capacità di integrarsi con gli altri giocatori umani. La nostra analisi mostra che il comportamento dell'agente nel decidere quando intervenire rispecchia da vicino i modelli umani, sebbene emergano differenze nel contenuto dei messaggi. Rilasciamo tutti i nostri dati e il codice per supportare e incoraggiare ulteriori ricerche su una comunicazione asincrona più realistica tra agenti LLM. Questo lavoro apre la strada all'integrazione dei LLM in contesti di gruppo umani realistici, dall'assistenza nelle discussioni di team agli ambienti educativi e professionali in cui è necessario navigare dinamiche sociali complesse.
English
LLMs are used predominantly in synchronous communication, where a human user and a model communicate in alternating turns. In contrast, many real-world settings are inherently asynchronous. For example, in group chats, online team meetings, or social games, there is no inherent notion of turns; therefore, the decision of when to speak forms a crucial part of the participant's decision making. In this work, we develop an adaptive asynchronous LLM-agent which, in addition to determining what to say, also decides when to say it. To evaluate our agent, we collect a unique dataset of online Mafia games, including both human participants, as well as our asynchronous agent. Overall, our agent performs on par with human players, both in game performance, as well as in its ability to blend in with the other human players. Our analysis shows that the agent's behavior in deciding when to speak closely mirrors human patterns, although differences emerge in message content. We release all our data and code to support and encourage further research for more realistic asynchronous communication between LLM agents. This work paves the way for integration of LLMs into realistic human group settings, from assistance in team discussions to educational and professional environments where complex social dynamics must be navigated.
PDF122June 12, 2025