Jogando jogos repetidos com Modelos de Linguagem de Grande Escala
Playing repeated games with Large Language Models
May 26, 2023
Autores: Elif Akata, Lion Schulz, Julian Coda-Forno, Seong Joon Oh, Matthias Bethge, Eric Schulz
cs.AI
Resumo
Modelos de Linguagem de Grande Escala (LLMs) estão transformando a sociedade e permeando diversas aplicações. Como resultado, os LLMs frequentemente interagirão conosco e com outros agentes. Portanto, é de grande valor social entender como os LLMs se comportam em cenários sociais interativos. Aqui, propomos usar a teoria dos jogos comportamental para estudar o comportamento de cooperação e coordenação dos LLMs. Para isso, fizemos diferentes LLMs (GPT-3, GPT-3.5 e GPT-4) jogarem jogos repetidos finitos entre si e com outras estratégias semelhantes às humanas. Nossos resultados mostram que os LLMs geralmente se saem bem nessas tarefas e também revelam assinaturas comportamentais persistentes. Em um grande conjunto de jogos de dois jogadores e duas estratégias, descobrimos que os LLMs são particularmente bons em jogos onde valorizar o próprio interesse é vantajoso, como na família do Dilema do Prisioneiro iterado. No entanto, eles se comportam de forma subótima em jogos que exigem coordenação. Portanto, focamos ainda mais em dois jogos dessas famílias distintas. No Dilema do Prisioneiro iterado canônico, descobrimos que o GPT-4 age de forma particularmente implacável, sempre desertando após outro agente ter desertado apenas uma vez. No Jogo da Batalha dos Sexos, descobrimos que o GPT-4 não consegue igualar o comportamento da simples convenção de alternar entre as opções. Verificamos que essas assinaturas comportamentais são estáveis em verificações de robustez. Por fim, mostramos como o comportamento do GPT-4 pode ser modificado fornecendo mais informações sobre o outro jogador e pedindo que ele preveja as ações do outro jogador antes de fazer uma escolha. Esses resultados enriquecem nossa compreensão do comportamento social dos LLMs e abrem caminho para uma teoria dos jogos comportamental para máquinas.
English
Large Language Models (LLMs) are transforming society and permeating into
diverse applications. As a result, LLMs will frequently interact with us and
other agents. It is, therefore, of great societal value to understand how LLMs
behave in interactive social settings. Here, we propose to use behavioral game
theory to study LLM's cooperation and coordination behavior. To do so, we let
different LLMs (GPT-3, GPT-3.5, and GPT-4) play finitely repeated games with
each other and with other, human-like strategies. Our results show that LLMs
generally perform well in such tasks and also uncover persistent behavioral
signatures. In a large set of two players-two strategies games, we find that
LLMs are particularly good at games where valuing their own self-interest pays
off, like the iterated Prisoner's Dilemma family. However, they behave
sub-optimally in games that require coordination. We, therefore, further focus
on two games from these distinct families. In the canonical iterated Prisoner's
Dilemma, we find that GPT-4 acts particularly unforgivingly, always defecting
after another agent has defected only once. In the Battle of the Sexes, we find
that GPT-4 cannot match the behavior of the simple convention to alternate
between options. We verify that these behavioral signatures are stable across
robustness checks. Finally, we show how GPT-4's behavior can be modified by
providing further information about the other player as well as by asking it to
predict the other player's actions before making a choice. These results enrich
our understanding of LLM's social behavior and pave the way for a behavioral
game theory for machines.