ChatPaper.aiChatPaper

Evaluación de las Evaluaciones de Modelos de Lenguaje sobre Juegos

Evaluating Language Models' Evaluations of Games

October 13, 2025
Autores: Katherine M. Collins, Cedegao E. Zhang, Graham Todd, Lance Ying, Mauricio Barba da Costa, Ryan Liu, Prafull Sharma, Adrian Weller, Ionatan Kuperwajs, Lionel Wong, Joshua B. Tenenbaum, Thomas L. Griffiths
cs.AI

Resumen

El razonamiento no se trata únicamente de resolver problemas, sino también de evaluar qué problemas vale la pena resolver. Las evaluaciones de los sistemas de inteligencia artificial (IA) se han centrado principalmente en la resolución de problemas, históricamente mediante el estudio de cómo los modelos juegan partidas de ajedrez o Go. En este artículo, abogamos por un nuevo paradigma que evalúe la capacidad de los sistemas de IA para evaluar juegos. En primer lugar, introducimos un formalismo para evaluar dichas evaluaciones. Luego, utilizamos un conjunto de datos a gran escala que incluye más de 100 juegos de mesa novedosos y más de 450 juicios humanos para comparar las evaluaciones producidas por modelos modernos de lenguaje y razonamiento con las de personas y agentes computacionales simbólicos. Consideramos dos tipos de consultas evaluativas: la valoración de la recompensa (o equidad) y la diversión de los juegos. Estas consultas abarcan dos dimensiones relevantes para el diseño de evaluaciones de IA: la complejidad computacional de la consulta y la dificultad de cuantificarla. Nuestros resultados muestran que los modelos de razonamiento están generalmente más alineados con las personas en sus evaluaciones de juegos que los modelos de lenguaje no razonantes. Sin embargo, observamos una relación no monótona: a medida que los modelos se acercan al óptimo teórico del juego, su ajuste a los datos humanos se debilita. También observamos una mayor "irregularidad" entre los modelos al evaluar la diversión, en línea con la mayor dificultad de cuantificar esta consulta. En todas las consultas y juegos, los modelos de razonamiento muestran un uso de recursos altamente variable e impredecible al evaluar consultas, lo que señala la importancia de incorporar un meta-razonamiento más racional en cuanto a recursos en los modelos de lenguaje y razonamiento.
English
Reasoning is not just about solving problems -- it is also about evaluating which problems are worth solving at all. Evaluations of artificial intelligence (AI) systems primarily focused on problem solving, historically by studying how models play games such as chess and Go. In this paper, we advocate for a new paradigm that assesses AI systems' evaluation of games. First, we introduce a formalism for evaluating such evaluations. We then leverage a large-scale dataset of over 100 novel board games and over 450 human judgments to compare evaluations produced by modern language and reasoning models against those of people and symbolic computational agents. We consider two kinds of evaluative queries: assessing the payoff (or fairness) and the funness of games. These queries span two dimensions relevant to the design of evaluations of AI evaluations: how complex a query is to compute and how difficult a query is to quantify. Our results show that reasoning models are generally more aligned to people in their evaluations of games than non-reasoning language models. However, we observe a non-monotonic relationship: as models get closer to game-theoretic optimal, their fit to human data weakens. We also observe more "jaggedness" across models for assessing funness, in line with the greater difficulty of quantifying this query. Across queries and games, reasoning models show highly variable and unpredictable resource usage when assessing queries, pointing to the importance of imbuing more resource-rational meta-reasoning in language and reasoning models.
PDF02October 16, 2025