ChatPaper.aiChatPaper

Mejora de los Modelos del Mundo Transformer para el Aprendizaje por Refuerzo con Eficiencia de Datos

Improving Transformer World Models for Data-Efficient RL

February 3, 2025
Autores: Antoine Dedieu, Joseph Ortiz, Xinghua Lou, Carter Wendelken, Wolfgang Lehrach, J Swaroop Guntupalli, Miguel Lazaro-Gredilla, Kevin Patrick Murphy
cs.AI

Resumen

Presentamos un enfoque de RL basado en modelos que logra un nuevo rendimiento de vanguardia en el desafiante benchmark Craftax-classic, un juego de supervivencia en 2D de mundo abierto que requiere que los agentes muestren una amplia gama de habilidades generales, como una fuerte generalización, exploración profunda y razonamiento a largo plazo. Con una serie de decisiones de diseño cuidadosas destinadas a mejorar la eficiencia de muestra, nuestro algoritmo de MBRL logra una recompensa del 67.4% después de solo 1 millón de pasos de entorno, superando significativamente a DreamerV3, que alcanza el 53.2%, y, por primera vez, supera el rendimiento humano del 65.0%. Nuestro método comienza construyendo una línea de base libre de modelos de vanguardia, utilizando una arquitectura de política novedosa que combina CNNs y RNNs. Luego agregamos tres mejoras al entorno MBRL estándar: (a) "Dyna con calentamiento", que entrena la política con datos reales e imaginarios, (b) "tokenizador de vecino más cercano" en parches de imagen, que mejora el esquema para crear las entradas del modelo del mundo transformador (TWM), y (c) "forzamiento de maestro de bloque", que permite al TWM razonar conjuntamente sobre los tokens futuros del próximo paso de tiempo.
English
We present an approach to model-based RL that achieves a new state of the art performance on the challenging Craftax-classic benchmark, an open-world 2D survival game that requires agents to exhibit a wide range of general abilities -- such as strong generalization, deep exploration, and long-term reasoning. With a series of careful design choices aimed at improving sample efficiency, our MBRL algorithm achieves a reward of 67.4% after only 1M environment steps, significantly outperforming DreamerV3, which achieves 53.2%, and, for the first time, exceeds human performance of 65.0%. Our method starts by constructing a SOTA model-free baseline, using a novel policy architecture that combines CNNs and RNNs. We then add three improvements to the standard MBRL setup: (a) "Dyna with warmup", which trains the policy on real and imaginary data, (b) "nearest neighbor tokenizer" on image patches, which improves the scheme to create the transformer world model (TWM) inputs, and (c) "block teacher forcing", which allows the TWM to reason jointly about the future tokens of the next timestep.

Summary

AI-Generated Summary

PDF92February 4, 2025