ChatPaper.aiChatPaper

NitroGen: Un Modello Base Aperto per Agenti di Gioco Generalisti

NitroGen: An Open Foundation Model for Generalist Gaming Agents

January 4, 2026
Autori: Loïc Magne, Anas Awadalla, Guanzhi Wang, Yinzhen Xu, Joshua Belofsky, Fengyuan Hu, Joohwan Kim, Ludwig Schmidt, Georgia Gkioxari, Jan Kautz, Yisong Yue, Yejin Choi, Yuke Zhu, Linxi "Jim" Fan
cs.AI

Abstract

Introduciamo NitroGen, un modello foundation visione-azione per agenti di gioco generalisti, addestrato su 40.000 ore di video di gameplay provenienti da oltre 1.000 giochi. Incorporiamo tre elementi chiave: 1) un dataset video-azione su scala internet costruito estraendo automaticamente le azioni dei giocatori da video di gameplay pubblicamente disponibili, 2) un ambiente di benchmark multi-gioco in grado di misurare la generalizzazione cross-game, e 3) un modello unificato visione-azione addestrato con cloning comportamentale su larga scala. NitroGen dimostra una forte competenza in domini diversificati, inclusi scontri in giochi d'azione 3D, controlli ad alta precisione in platformer 2D ed esplorazione in mondi generati proceduralmente. Il modello trasferisce efficacemente le sue capacità a giochi non visti, raggiungendo un miglioramento relativo fino al 52% nei tassi di successo delle attività rispetto a modelli addestrati da zero. Rilasciamo il dataset, la suite di valutazione e i pesi del modello per far progredire la ricerca sugli agenti embodied generalisti.
English
We introduce NitroGen, a vision-action foundation model for generalist gaming agents that is trained on 40,000 hours of gameplay videos across more than 1,000 games. We incorporate three key ingredients: 1) an internet-scale video-action dataset constructed by automatically extracting player actions from publicly available gameplay videos, 2) a multi-game benchmark environment that can measure cross-game generalization, and 3) a unified vision-action model trained with large-scale behavior cloning. NitroGen exhibits strong competence across diverse domains, including combat encounters in 3D action games, high-precision control in 2D platformers, and exploration in procedurally generated worlds. It transfers effectively to unseen games, achieving up to 52% relative improvement in task success rates over models trained from scratch. We release the dataset, evaluation suite, and model weights to advance research on generalist embodied agents.
PDF453March 6, 2026