Het evalueren van de evaluaties van taalmodelen over spellen
Evaluating Language Models' Evaluations of Games
October 13, 2025
Auteurs: Katherine M. Collins, Cedegao E. Zhang, Graham Todd, Lance Ying, Mauricio Barba da Costa, Ryan Liu, Prafull Sharma, Adrian Weller, Ionatan Kuperwajs, Lionel Wong, Joshua B. Tenenbaum, Thomas L. Griffiths
cs.AI
Samenvatting
Redeneren gaat niet alleen over het oplossen van problemen -- het gaat ook over het beoordelen welke problemen überhaupt de moeite waard zijn om op te lossen. Evaluaties van kunstmatige intelligentie (AI)-systemen richtten zich historisch gezien vooral op probleemoplossing, door te bestuderen hoe modellen spellen zoals schaken en Go spelen. In dit artikel pleiten we voor een nieuw paradigma dat de evaluatie van spellen door AI-systemen beoordeelt. Eerst introduceren we een formalisme voor het evalueren van dergelijke evaluaties. Vervolgens maken we gebruik van een grootschalige dataset van meer dan 100 nieuwe bordspellen en meer dan 450 menselijke oordelen om de evaluaties van moderne taal- en redeneermodellen te vergelijken met die van mensen en symbolische computationele agents. We beschouwen twee soorten evaluatieve vragen: het beoordelen van de opbrengst (of eerlijkheid) en het plezier van spellen. Deze vragen beslaan twee dimensies die relevant zijn voor het ontwerpen van evaluaties van AI-evaluaties: hoe complex een vraag is om te berekenen en hoe moeilijk een vraag is om te kwantificeren. Onze resultaten laten zien dat redeneermodellen over het algemeen meer overeenkomen met mensen in hun evaluaties van spellen dan niet-redenerende taalmodellen. We observeren echter een niet-monotone relatie: naarmate modellen dichter bij het speltheoretische optimum komen, verzwakt hun overeenstemming met menselijke data. We observeren ook meer "ruwheid" tussen modellen bij het beoordelen van plezier, in lijn met de grotere moeilijkheid om deze vraag te kwantificeren. Over vragen en spellen heen tonen redeneermodellen zeer variabel en onvoorspelbaar resourcegebruik bij het beoordelen van vragen, wat wijst op het belang van het integreren van meer resource-rationele meta-redenering in taal- en redeneermodellen.
English
Reasoning is not just about solving problems -- it is also about evaluating
which problems are worth solving at all. Evaluations of artificial intelligence
(AI) systems primarily focused on problem solving, historically by studying how
models play games such as chess and Go. In this paper, we advocate for a new
paradigm that assesses AI systems' evaluation of games. First, we introduce a
formalism for evaluating such evaluations. We then leverage a large-scale
dataset of over 100 novel board games and over 450 human judgments to compare
evaluations produced by modern language and reasoning models against those of
people and symbolic computational agents. We consider two kinds of evaluative
queries: assessing the payoff (or fairness) and the funness of games. These
queries span two dimensions relevant to the design of evaluations of AI
evaluations: how complex a query is to compute and how difficult a query is to
quantify. Our results show that reasoning models are generally more aligned to
people in their evaluations of games than non-reasoning language models.
However, we observe a non-monotonic relationship: as models get closer to
game-theoretic optimal, their fit to human data weakens. We also observe more
"jaggedness" across models for assessing funness, in line with the greater
difficulty of quantifying this query. Across queries and games, reasoning
models show highly variable and unpredictable resource usage when assessing
queries, pointing to the importance of imbuing more resource-rational
meta-reasoning in language and reasoning models.