ChatPaper.aiChatPaper

Het evalueren van de evaluaties van taalmodelen over spellen

Evaluating Language Models' Evaluations of Games

October 13, 2025
Auteurs: Katherine M. Collins, Cedegao E. Zhang, Graham Todd, Lance Ying, Mauricio Barba da Costa, Ryan Liu, Prafull Sharma, Adrian Weller, Ionatan Kuperwajs, Lionel Wong, Joshua B. Tenenbaum, Thomas L. Griffiths
cs.AI

Samenvatting

Redeneren gaat niet alleen over het oplossen van problemen -- het gaat ook over het beoordelen welke problemen überhaupt de moeite waard zijn om op te lossen. Evaluaties van kunstmatige intelligentie (AI)-systemen richtten zich historisch gezien vooral op probleemoplossing, door te bestuderen hoe modellen spellen zoals schaken en Go spelen. In dit artikel pleiten we voor een nieuw paradigma dat de evaluatie van spellen door AI-systemen beoordeelt. Eerst introduceren we een formalisme voor het evalueren van dergelijke evaluaties. Vervolgens maken we gebruik van een grootschalige dataset van meer dan 100 nieuwe bordspellen en meer dan 450 menselijke oordelen om de evaluaties van moderne taal- en redeneermodellen te vergelijken met die van mensen en symbolische computationele agents. We beschouwen twee soorten evaluatieve vragen: het beoordelen van de opbrengst (of eerlijkheid) en het plezier van spellen. Deze vragen beslaan twee dimensies die relevant zijn voor het ontwerpen van evaluaties van AI-evaluaties: hoe complex een vraag is om te berekenen en hoe moeilijk een vraag is om te kwantificeren. Onze resultaten laten zien dat redeneermodellen over het algemeen meer overeenkomen met mensen in hun evaluaties van spellen dan niet-redenerende taalmodellen. We observeren echter een niet-monotone relatie: naarmate modellen dichter bij het speltheoretische optimum komen, verzwakt hun overeenstemming met menselijke data. We observeren ook meer "ruwheid" tussen modellen bij het beoordelen van plezier, in lijn met de grotere moeilijkheid om deze vraag te kwantificeren. Over vragen en spellen heen tonen redeneermodellen zeer variabel en onvoorspelbaar resourcegebruik bij het beoordelen van vragen, wat wijst op het belang van het integreren van meer resource-rationele meta-redenering in taal- en redeneermodellen.
English
Reasoning is not just about solving problems -- it is also about evaluating which problems are worth solving at all. Evaluations of artificial intelligence (AI) systems primarily focused on problem solving, historically by studying how models play games such as chess and Go. In this paper, we advocate for a new paradigm that assesses AI systems' evaluation of games. First, we introduce a formalism for evaluating such evaluations. We then leverage a large-scale dataset of over 100 novel board games and over 450 human judgments to compare evaluations produced by modern language and reasoning models against those of people and symbolic computational agents. We consider two kinds of evaluative queries: assessing the payoff (or fairness) and the funness of games. These queries span two dimensions relevant to the design of evaluations of AI evaluations: how complex a query is to compute and how difficult a query is to quantify. Our results show that reasoning models are generally more aligned to people in their evaluations of games than non-reasoning language models. However, we observe a non-monotonic relationship: as models get closer to game-theoretic optimal, their fit to human data weakens. We also observe more "jaggedness" across models for assessing funness, in line with the greater difficulty of quantifying this query. Across queries and games, reasoning models show highly variable and unpredictable resource usage when assessing queries, pointing to the importance of imbuing more resource-rational meta-reasoning in language and reasoning models.
PDF02October 16, 2025