ChatPaper.aiChatPaper

lmgame-Bench: Quanto sono bravi i LLM a giocare?

lmgame-Bench: How Good are LLMs at Playing Games?

May 21, 2025
Autori: Lanxiang Hu, Mingjia Huo, Yuxuan Zhang, Haoyang Yu, Eric P. Xing, Ion Stoica, Tajana Rosing, Haojian Jin, Hao Zhang
cs.AI

Abstract

Giocare ai videogiochi richiede percezione, memoria e pianificazione, esattamente le capacità che si prevede che i moderni agenti basati su grandi modelli linguistici (LLM) padroneggino. Studiamo le principali sfide nell'utilizzo di videogiochi popolari per valutare i moderni LLM e scopriamo che inserire direttamente gli LLM nei giochi non costituisce una valutazione efficace, per tre motivi: percezione visiva fragile, sensibilità ai prompt e potenziale contaminazione dei dati. Introduciamo lmgame-Bench per trasformare i giochi in valutazioni affidabili. lmgame-Bench include una suite di giochi platform, puzzle e narrativi forniti attraverso un'API unificata in stile Gym e abbinati a impalcature leggere per la percezione e la memoria, ed è progettato per stabilizzare la varianza dei prompt e rimuovere la contaminazione. Su 13 modelli leader, dimostriamo che lmgame-Bench è impegnativo pur separando bene i modelli. L'analisi di correlazione mostra che ogni gioco esplora una combinazione unica di capacità spesso testate isolatamente altrove. Ancora più interessante, eseguire l'apprendimento per rinforzo su un singolo gioco di lmgame-Bench si trasferisce sia a giochi non visti che a compiti di pianificazione esterni. Il nostro codice di valutazione è disponibile all'indirizzo https://github.com/lmgame-org/GamingAgent/lmgame-bench.
English
Playing video games requires perception, memory, and planning, exactly the faculties modern large language model (LLM) agents are expected to master. We study the major challenges in using popular video games to evaluate modern LLMs and find that directly dropping LLMs into games cannot make an effective evaluation, for three reasons -- brittle vision perception, prompt sensitivity, and potential data contamination. We introduce lmgame-Bench to turn games into reliable evaluations. lmgame-Bench features a suite of platformer, puzzle, and narrative games delivered through a unified Gym-style API and paired with lightweight perception and memory scaffolds, and is designed to stabilize prompt variance and remove contamination. Across 13 leading models, we show lmgame-Bench is challenging while still separating models well. Correlation analysis shows that every game probes a unique blend of capabilities often tested in isolation elsewhere. More interestingly, performing reinforcement learning on a single game from lmgame-Bench transfers both to unseen games and to external planning tasks. Our evaluation code is available at https://github.com/lmgame-org/GamingAgent/lmgame-bench.
PDF203May 22, 2025