ChatPaper.aiChatPaper

大規模な再帰アクションモデル:xLSTMは、ロボティクスタスクの高速推論を可能にします。

A Large Recurrent Action Model: xLSTM enables Fast Inference for Robotics Tasks

October 29, 2024
著者: Thomas Schmied, Thomas Adler, Vihang Patil, Maximilian Beck, Korbinian Pöppel, Johannes Brandstetter, Günter Klambauer, Razvan Pascanu, Sepp Hochreiter
cs.AI

要旨

近年、強化学習(RL)の分野では、大規模なアクションモデルが大規模なデータセットを用いてオフラインでシーケンスモデリングを通じて訓練される傾向が見られます。既存のモデルは主にTransformerアーキテクチャに基づいており、強力なエージェントを生み出しています。しかし、Transformerベースのアプローチは推論時間が遅いため、ロボティクスなどのリアルタイムアプリケーションには実用的ではありません。最近では、xLSTMやMambaなどのモダンな再帰アーキテクチャが提案され、Transformerアーキテクチャと同様のトレーニング中の並列化の利点を持ちながら高速な推論を提供しています。本研究では、これらのモダンな再帰アーキテクチャが大規模なアクションモデルにどれだけ適しているかを調査します。その結果、xLSTMを中心とする大規模再帰アクションモデル(LRAM)を提案し、線形時間の推論複雑さと自然なシーケンス長の推定能力を持つことを示します。6つのドメインから432のタスクでの実験結果は、LRAMがパフォーマンスと速度の面でTransformersと比較して有利であることを示しています。
English
In recent years, there has been a trend in the field of Reinforcement Learning (RL) towards large action models trained offline on large-scale datasets via sequence modeling. Existing models are primarily based on the Transformer architecture, which result in powerful agents. However, due to slow inference times, Transformer-based approaches are impractical for real-time applications, such as robotics. Recently, modern recurrent architectures, such as xLSTM and Mamba, have been proposed that exhibit parallelization benefits during training similar to the Transformer architecture while offering fast inference. In this work, we study the aptitude of these modern recurrent architectures for large action models. Consequently, we propose a Large Recurrent Action Model (LRAM) with an xLSTM at its core that comes with linear-time inference complexity and natural sequence length extrapolation abilities. Experiments on 432 tasks from 6 domains show that LRAM compares favorably to Transformers in terms of performance and speed.

Summary

AI-Generated Summary

PDF222November 16, 2024