ChatPaper.aiChatPaper

Время для разговора: агенты языковых моделей для асинхронной групповой коммуникации в играх "Мафия"

Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games

June 5, 2025
Авторы: Niv Eckhaus, Uri Berger, Gabriel Stanovsky
cs.AI

Аннотация

Крупные языковые модели (LLM) преимущественно используются в синхронной коммуникации, где человек и модель обмениваются сообщениями поочередно. В то же время многие реальные ситуации по своей природе являются асинхронными. Например, в групповых чатах, онлайн-встречах команд или социальных играх отсутствует четкое понятие очередности высказываний; поэтому решение о том, когда говорить, становится важной частью принятия решений участниками. В данной работе мы разрабатываем адаптивного асинхронного агента на основе LLM, который, помимо определения того, что сказать, также решает, когда это сделать. Для оценки нашего агента мы собираем уникальный набор данных из онлайн-игр в "Мафию", включающих как человеческих участников, так и нашего асинхронного агента. В целом, наш агент демонстрирует результаты, сопоставимые с человеческими игроками, как по игровой эффективности, так и по способности гармонично вписываться в группу других игроков. Наш анализ показывает, что поведение агента в принятии решений о времени высказывания близко отражает человеческие паттерны, хотя различия проявляются в содержании сообщений. Мы публикуем все наши данные и код, чтобы поддержать и стимулировать дальнейшие исследования в области более реалистичной асинхронной коммуникации между агентами на основе LLM. Эта работа открывает путь для интеграции LLM в реалистичные групповые взаимодействия людей, начиная от помощи в командных обсуждениях и заканчивая образовательными и профессиональными средами, где необходимо учитывать сложные социальные динамики.
English
LLMs are used predominantly in synchronous communication, where a human user and a model communicate in alternating turns. In contrast, many real-world settings are inherently asynchronous. For example, in group chats, online team meetings, or social games, there is no inherent notion of turns; therefore, the decision of when to speak forms a crucial part of the participant's decision making. In this work, we develop an adaptive asynchronous LLM-agent which, in addition to determining what to say, also decides when to say it. To evaluate our agent, we collect a unique dataset of online Mafia games, including both human participants, as well as our asynchronous agent. Overall, our agent performs on par with human players, both in game performance, as well as in its ability to blend in with the other human players. Our analysis shows that the agent's behavior in deciding when to speak closely mirrors human patterns, although differences emerge in message content. We release all our data and code to support and encourage further research for more realistic asynchronous communication between LLM agents. This work paves the way for integration of LLMs into realistic human group settings, from assistance in team discussions to educational and professional environments where complex social dynamics must be navigated.
PDF122June 12, 2025