VLA-0: ゼロ修正で最先端のVLAを構築する
VLA-0: Building State-of-the-Art VLAs with Zero Modification
October 15, 2025
著者: Ankit Goyal, Hugo Hadfield, Xuning Yang, Valts Blukis, Fabio Ramos
cs.AI
要旨
Vision-Language-Actionモデル(VLA)は、汎用ロボット操作を実現するための大きな可能性を秘めている。しかし、その構築方法については未だに議論の余地がある。現在のアプローチでは、Vision-Languageモデル(VLM)の既存の語彙にアクショントークンを追加したり、特別なアクションヘッドを導入するなど、複雑さを増す傾向がある。興味深いことに、アクションを直接テキストとして表現するという最もシンプルな戦略は、ほとんど検討されていない。本研究では、このアイデアを検証するためにVLA-0を提案する。VLA-0は効果的であるだけでなく、驚くほど強力であることがわかった。適切な設計を行うことで、VLA-0はより複雑なモデルを凌駕する。VLAの評価において広く使用されているベンチマークであるLIBEROにおいて、VLA-0は同じロボットデータで訓練された既存の手法(pi_0.5-KI、OpenVLA-OFT、SmolVLAなど)を全て上回った。さらに、大規模なロボット固有の訓練を行わなくても、pi_0.5-KI、pi_0、GR00T-N1、MolmoActなど、大規模なロボットデータで訓練された手法を上回る結果を示した。これらの知見は現実世界でも適用可能であり、VLA-0は大規模な実データで事前訓練されたVLAモデルであるSmolVLAを上回った。本論文では、このシンプルでありながら強力なVLA設計の高性能を引き出すために必要な具体的な技術をまとめ、予想外の結果を報告する。視覚的な結果、コード、および訓練済みモデルは以下のURLで提供されている:https://vla0.github.io/。
English
Vision-Language-Action models (VLAs) hold immense promise for enabling
generalist robot manipulation. However, the best way to build them remains an
open question. Current approaches often add complexity, such as modifying the
existing vocabulary of a Vision-Language Model (VLM) with action tokens or
introducing special action heads. Curiously, the simplest strategy of
representing actions directly as text has remained largely unexplored. This
work introduces VLA-0 to investigate this idea. We find that VLA-0 is not only
effective; it is surprisingly powerful. With the right design, VLA-0
outperforms more involved models. On LIBERO, a popular benchmark for evaluating
VLAs, VLA-0 outperforms all existing methods trained on the same robotic data,
including pi_0.5-KI, OpenVLA-OFT and SmolVLA. Furthermore, without
large-scale robotics-specific training, it outperforms methods trained on
large-scale robotic data, like pi_0.5-KI, pi_0, GR00T-N1 and MolmoAct.
These findings also translate to the real world, where VLA-0 outperforms
SmolVLA, a VLA model pre-trained on large-scale real data. This paper
summarizes our unexpected findings and spells out the specific techniques
required to unlock the high performance of this simple yet potent VLA design.
Visual results, code, and trained models are provided here:
https://vla0.github.io/.