Wiederholte Spiele mit großen Sprachmodellen spielen
Playing repeated games with Large Language Models
May 26, 2023
Autoren: Elif Akata, Lion Schulz, Julian Coda-Forno, Seong Joon Oh, Matthias Bethge, Eric Schulz
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) transformieren die Gesellschaft und dringen in vielfältige Anwendungen ein. Infolgedessen werden LLMs häufig mit uns und anderen Akteuren interagieren. Es ist daher von großem gesellschaftlichem Wert zu verstehen, wie sich LLMs in interaktiven sozialen Kontexten verhalten. Hier schlagen wir vor, die Verhaltensspieltheorie zu nutzen, um das Kooperations- und Koordinationsverhalten von LLMs zu untersuchen. Dazu lassen wir verschiedene LLMs (GPT-3, GPT-3.5 und GPT-4) endlich wiederholte Spiele gegeneinander und mit anderen, menschenähnlichen Strategien spielen. Unsere Ergebnisse zeigen, dass LLMs in solchen Aufgaben generell gut abschneiden und auch persistente Verhaltenssignaturen aufdecken. In einer großen Anzahl von Zwei-Spieler-Zwei-Strategien-Spielen stellen wir fest, dass LLMs besonders gut in Spielen abschneiden, in denen die Verfolgung des eigenen Eigeninteresses vorteilhaft ist, wie beispielsweise in der Familie des iterierten Gefangenendilemmas. In Spielen, die Koordination erfordern, verhalten sie sich jedoch suboptimal. Daher konzentrieren wir uns weiterhin auf zwei Spiele aus diesen unterschiedlichen Familien. Im kanonischen iterierten Gefangenendilemma stellen wir fest, dass GPT-4 besonders unnachgiebig handelt und immer defektiert, nachdem ein anderer Akteur nur einmal defektiert hat. Im Kampf der Geschlechter zeigt sich, dass GPT-4 das Verhalten der einfachen Konvention, zwischen den Optionen zu wechseln, nicht erreichen kann. Wir bestätigen, dass diese Verhaltenssignaturen über Robustheitsprüfungen hinweg stabil sind. Schließlich zeigen wir, wie das Verhalten von GPT-4 durch die Bereitstellung weiterer Informationen über den anderen Spieler sowie durch die Aufforderung, die Aktionen des anderen Spielers vor einer Entscheidung vorherzusagen, modifiziert werden kann. Diese Ergebnisse bereichern unser Verständnis des sozialen Verhaltens von LLMs und ebnen den Weg für eine Verhaltensspieltheorie für Maschinen.
English
Large Language Models (LLMs) are transforming society and permeating into
diverse applications. As a result, LLMs will frequently interact with us and
other agents. It is, therefore, of great societal value to understand how LLMs
behave in interactive social settings. Here, we propose to use behavioral game
theory to study LLM's cooperation and coordination behavior. To do so, we let
different LLMs (GPT-3, GPT-3.5, and GPT-4) play finitely repeated games with
each other and with other, human-like strategies. Our results show that LLMs
generally perform well in such tasks and also uncover persistent behavioral
signatures. In a large set of two players-two strategies games, we find that
LLMs are particularly good at games where valuing their own self-interest pays
off, like the iterated Prisoner's Dilemma family. However, they behave
sub-optimally in games that require coordination. We, therefore, further focus
on two games from these distinct families. In the canonical iterated Prisoner's
Dilemma, we find that GPT-4 acts particularly unforgivingly, always defecting
after another agent has defected only once. In the Battle of the Sexes, we find
that GPT-4 cannot match the behavior of the simple convention to alternate
between options. We verify that these behavioral signatures are stable across
robustness checks. Finally, we show how GPT-4's behavior can be modified by
providing further information about the other player as well as by asking it to
predict the other player's actions before making a choice. These results enrich
our understanding of LLM's social behavior and pave the way for a behavioral
game theory for machines.