ChatPaper.aiChatPaper

Un Modelo de Acción Recurrente Amplio: xLSTM permite una Inferencia Rápida para Tareas de Robótica

A Large Recurrent Action Model: xLSTM enables Fast Inference for Robotics Tasks

October 29, 2024
Autores: Thomas Schmied, Thomas Adler, Vihang Patil, Maximilian Beck, Korbinian Pöppel, Johannes Brandstetter, Günter Klambauer, Razvan Pascanu, Sepp Hochreiter
cs.AI

Resumen

En los últimos años, ha habido una tendencia en el campo del Aprendizaje por Refuerzo (RL) hacia modelos de acción amplios entrenados de forma offline en conjuntos de datos a gran escala a través de modelado de secuencias. Los modelos existentes se basan principalmente en la arquitectura Transformer, lo que resulta en agentes potentes. Sin embargo, debido a los tiempos de inferencia lentos, los enfoques basados en Transformer son imprácticos para aplicaciones en tiempo real, como la robótica. Recientemente, se han propuesto arquitecturas recurrentes modernas, como xLSTM y Mamba, que presentan beneficios de paralelización durante el entrenamiento similares a la arquitectura Transformer, al tiempo que ofrecen una inferencia rápida. En este trabajo, estudiamos la aptitud de estas modernas arquitecturas recurrentes para modelos de acción amplios. En consecuencia, proponemos un Modelo de Acción Recurrente Amplio (LRAM) con un xLSTM en su núcleo que tiene una complejidad de inferencia lineal y capacidades naturales de extrapolación de longitud de secuencia. Experimentos en 432 tareas de 6 dominios muestran que LRAM se compara favorablemente con los Transformers en cuanto a rendimiento y velocidad.
English
In recent years, there has been a trend in the field of Reinforcement Learning (RL) towards large action models trained offline on large-scale datasets via sequence modeling. Existing models are primarily based on the Transformer architecture, which result in powerful agents. However, due to slow inference times, Transformer-based approaches are impractical for real-time applications, such as robotics. Recently, modern recurrent architectures, such as xLSTM and Mamba, have been proposed that exhibit parallelization benefits during training similar to the Transformer architecture while offering fast inference. In this work, we study the aptitude of these modern recurrent architectures for large action models. Consequently, we propose a Large Recurrent Action Model (LRAM) with an xLSTM at its core that comes with linear-time inference complexity and natural sequence length extrapolation abilities. Experiments on 432 tasks from 6 domains show that LRAM compares favorably to Transformers in terms of performance and speed.

Summary

AI-Generated Summary

PDF222November 16, 2024