ChatPaper.aiChatPaper

NitroGen: Um Modelo de Base Aberto para Agentes de Jogos Generalistas

NitroGen: An Open Foundation Model for Generalist Gaming Agents

January 4, 2026
Autores: Loïc Magne, Anas Awadalla, Guanzhi Wang, Yinzhen Xu, Joshua Belofsky, Fengyuan Hu, Joohwan Kim, Ludwig Schmidt, Georgia Gkioxari, Jan Kautz, Yisong Yue, Yejin Choi, Yuke Zhu, Linxi "Jim" Fan
cs.AI

Resumo

Apresentamos o NitroGen, um modelo de base visão-ação para agentes generalistas de jogos, treinado em 40.000 horas de vídeos de gameplay de mais de 1.000 jogos. Incorporamos três elementos-chave: 1) um conjunto de dados vídeo-ação em escala de internet, construído através da extração automática de ações do jogador a partir de vídeos de gameplay publicamente disponíveis, 2) um ambiente de avaliação multijogos capaz de medir a generalização entre jogos, e 3) um modelo unificado visão-ação treinado com clonagem comportamental em larga escala. O NitroGen exibe competência notável em domínios diversos, incluindo combates em jogos de ação 3D, controle de alta precisão em plataformas 2D e exploração em mundos gerados proceduralmente. O modelo transfere eficazmente seu conhecimento para jogos não vistos, alcançando uma melhoria relativa de até 52% nas taxas de sucesso de tarefas em comparação com modelos treinados do zero. Disponibilizamos o conjunto de dados, o ambiente de avaliação e os pesos do modelo para avançar a pesquisa em agentes corporificados generalistas.
English
We introduce NitroGen, a vision-action foundation model for generalist gaming agents that is trained on 40,000 hours of gameplay videos across more than 1,000 games. We incorporate three key ingredients: 1) an internet-scale video-action dataset constructed by automatically extracting player actions from publicly available gameplay videos, 2) a multi-game benchmark environment that can measure cross-game generalization, and 3) a unified vision-action model trained with large-scale behavior cloning. NitroGen exhibits strong competence across diverse domains, including combat encounters in 3D action games, high-precision control in 2D platformers, and exploration in procedurally generated worlds. It transfers effectively to unseen games, achieving up to 52% relative improvement in task success rates over models trained from scratch. We release the dataset, evaluation suite, and model weights to advance research on generalist embodied agents.
PDF453March 6, 2026