Jugando juegos repetidos con Modelos de Lenguaje a Gran Escala
Playing repeated games with Large Language Models
May 26, 2023
Autores: Elif Akata, Lion Schulz, Julian Coda-Forno, Seong Joon Oh, Matthias Bethge, Eric Schulz
cs.AI
Resumen
Los modelos de lenguaje de gran escala (LLMs, por sus siglas en inglés) están transformando la sociedad y permeando en diversas aplicaciones. Como resultado, los LLMs interactuarán frecuentemente con nosotros y con otros agentes. Por lo tanto, es de gran valor social comprender cómo se comportan los LLMs en entornos sociales interactivos. Aquí, proponemos utilizar la teoría de juegos conductual para estudiar el comportamiento de cooperación y coordinación de los LLMs. Para ello, hacemos que diferentes LLMs (GPT-3, GPT-3.5 y GPT-4) jueguen partidas repetidas finitas entre sí y con otras estrategias similares a las humanas. Nuestros resultados muestran que los LLMs generalmente se desempeñan bien en estas tareas y también revelan firmas conductuales persistentes. En un amplio conjunto de juegos de dos jugadores y dos estrategias, encontramos que los LLMs son particularmente buenos en juegos donde valorar su propio interés personal es beneficioso, como la familia del Dilema del Prisionero iterado. Sin embargo, se comportan de manera subóptima en juegos que requieren coordinación. Por lo tanto, nos enfocamos en dos juegos de estas familias distintas. En el canónico Dilema del Prisionero iterado, encontramos que GPT-4 actúa de manera particularmente implacable, siempre traicionando después de que otro agente haya traicionado solo una vez. En la Batalla de los Sexos, encontramos que GPT-4 no puede igualar el comportamiento de la simple convención de alternar entre opciones. Verificamos que estas firmas conductuales son estables en controles de robustez. Finalmente, mostramos cómo el comportamiento de GPT-4 puede modificarse proporcionando más información sobre el otro jugador, así como pidiéndole que prediga las acciones del otro jugador antes de tomar una decisión. Estos resultados enriquecen nuestra comprensión del comportamiento social de los LLMs y allanan el camino para una teoría de juegos conductual para máquinas.
English
Large Language Models (LLMs) are transforming society and permeating into
diverse applications. As a result, LLMs will frequently interact with us and
other agents. It is, therefore, of great societal value to understand how LLMs
behave in interactive social settings. Here, we propose to use behavioral game
theory to study LLM's cooperation and coordination behavior. To do so, we let
different LLMs (GPT-3, GPT-3.5, and GPT-4) play finitely repeated games with
each other and with other, human-like strategies. Our results show that LLMs
generally perform well in such tasks and also uncover persistent behavioral
signatures. In a large set of two players-two strategies games, we find that
LLMs are particularly good at games where valuing their own self-interest pays
off, like the iterated Prisoner's Dilemma family. However, they behave
sub-optimally in games that require coordination. We, therefore, further focus
on two games from these distinct families. In the canonical iterated Prisoner's
Dilemma, we find that GPT-4 acts particularly unforgivingly, always defecting
after another agent has defected only once. In the Battle of the Sexes, we find
that GPT-4 cannot match the behavior of the simple convention to alternate
between options. We verify that these behavioral signatures are stable across
robustness checks. Finally, we show how GPT-4's behavior can be modified by
providing further information about the other player as well as by asking it to
predict the other player's actions before making a choice. These results enrich
our understanding of LLM's social behavior and pave the way for a behavioral
game theory for machines.