Giocare a giochi ripetuti con Modelli Linguistici di Grandi Dimensioni
Playing repeated games with Large Language Models
May 26, 2023
Autori: Elif Akata, Lion Schulz, Julian Coda-Forno, Seong Joon Oh, Matthias Bethge, Eric Schulz
cs.AI
Abstract
I Large Language Model (LLM) stanno trasformando la società e si stanno diffondendo in applicazioni diversificate. Di conseguenza, gli LLM interagiranno frequentemente con noi e con altri agenti. È quindi di grande valore sociale comprendere come gli LLM si comportano in contesti sociali interattivi. Qui proponiamo di utilizzare la teoria dei giochi comportamentale per studiare il comportamento di cooperazione e coordinamento degli LLM. Per farlo, abbiamo fatto giocare diversi LLM (GPT-3, GPT-3.5 e GPT-4) in giochi ripetuti finitamente tra loro e con altre strategie simili a quelle umane. I nostri risultati mostrano che gli LLM generalmente performano bene in tali compiti e rivelano anche firme comportamentali persistenti. In un ampio set di giochi a due giocatori e due strategie, abbiamo scoperto che gli LLM sono particolarmente bravi nei giochi in cui valorizzare il proprio interesse personale è vantaggioso, come la famiglia del Dilemma del Prigioniero iterato. Tuttavia, si comportano in modo sub-ottimale nei giochi che richiedono coordinamento. Ci concentriamo quindi ulteriormente su due giochi di queste distinte famiglie. Nel classico Dilemma del Prigioniero iterato, abbiamo scoperto che GPT-4 agisce in modo particolarmente inflessibile, defezionando sempre dopo che un altro agente ha defezionato anche solo una volta. Nella Battaglia dei Sessi, abbiamo scoperto che GPT-4 non riesce a eguagliare il comportamento della semplice convenzione di alternare tra le opzioni. Verifichiamo che queste firme comportamentali sono stabili attraverso controlli di robustezza. Infine, mostriamo come il comportamento di GPT-4 possa essere modificato fornendo ulteriori informazioni sull'altro giocatore e chiedendogli di prevedere le azioni dell'altro giocatore prima di fare una scelta. Questi risultati arricchiscono la nostra comprensione del comportamento sociale degli LLM e aprono la strada a una teoria dei giochi comportamentale per le macchine.
English
Large Language Models (LLMs) are transforming society and permeating into
diverse applications. As a result, LLMs will frequently interact with us and
other agents. It is, therefore, of great societal value to understand how LLMs
behave in interactive social settings. Here, we propose to use behavioral game
theory to study LLM's cooperation and coordination behavior. To do so, we let
different LLMs (GPT-3, GPT-3.5, and GPT-4) play finitely repeated games with
each other and with other, human-like strategies. Our results show that LLMs
generally perform well in such tasks and also uncover persistent behavioral
signatures. In a large set of two players-two strategies games, we find that
LLMs are particularly good at games where valuing their own self-interest pays
off, like the iterated Prisoner's Dilemma family. However, they behave
sub-optimally in games that require coordination. We, therefore, further focus
on two games from these distinct families. In the canonical iterated Prisoner's
Dilemma, we find that GPT-4 acts particularly unforgivingly, always defecting
after another agent has defected only once. In the Battle of the Sexes, we find
that GPT-4 cannot match the behavior of the simple convention to alternate
between options. We verify that these behavioral signatures are stable across
robustness checks. Finally, we show how GPT-4's behavior can be modified by
providing further information about the other player as well as by asking it to
predict the other player's actions before making a choice. These results enrich
our understanding of LLM's social behavior and pave the way for a behavioral
game theory for machines.