ChatPaper.aiChatPaper

VLA-0 : Construction de VLAs de pointe sans aucune modification

VLA-0: Building State-of-the-Art VLAs with Zero Modification

October 15, 2025
papers.authors: Ankit Goyal, Hugo Hadfield, Xuning Yang, Valts Blukis, Fabio Ramos
cs.AI

papers.abstract

Les modèles Vision-Langage-Action (VLA) offrent un immense potentiel pour permettre la manipulation robotique généraliste. Cependant, la meilleure manière de les construire reste une question ouverte. Les approches actuelles ajoutent souvent de la complexité, comme la modification du vocabulaire existant d'un modèle Vision-Langage (VLM) avec des tokens d'action ou l'introduction de têtes d'action spéciales. Curieusement, la stratégie la plus simple consistant à représenter directement les actions sous forme de texte est restée largement inexplorée. Ce travail introduit VLA-0 pour explorer cette idée. Nous constatons que VLA-0 est non seulement efficace, mais aussi étonnamment puissant. Avec la bonne conception, VLA-0 surpasse des modèles plus complexes. Sur LIBERO, un benchmark populaire pour évaluer les VLA, VLA-0 surpasse toutes les méthodes existantes entraînées sur les mêmes données robotiques, y compris pi_0.5-KI, OpenVLA-OFT et SmolVLA. De plus, sans entraînement à grande échelle spécifique à la robotique, il surpasse des méthodes entraînées sur des données robotiques à grande échelle, comme pi_0.5-KI, pi_0, GR00T-N1 et MolmoAct. Ces résultats se traduisent également dans le monde réel, où VLA-0 surpasse SmolVLA, un modèle VLA pré-entraîné sur des données réelles à grande échelle. Cet article résume nos découvertes inattendues et détaille les techniques spécifiques nécessaires pour débloquer les hautes performances de cette conception VLA simple mais puissante. Les résultats visuels, le code et les modèles entraînés sont disponibles ici : https://vla0.github.io/.
English
Vision-Language-Action models (VLAs) hold immense promise for enabling generalist robot manipulation. However, the best way to build them remains an open question. Current approaches often add complexity, such as modifying the existing vocabulary of a Vision-Language Model (VLM) with action tokens or introducing special action heads. Curiously, the simplest strategy of representing actions directly as text has remained largely unexplored. This work introduces VLA-0 to investigate this idea. We find that VLA-0 is not only effective; it is surprisingly powerful. With the right design, VLA-0 outperforms more involved models. On LIBERO, a popular benchmark for evaluating VLAs, VLA-0 outperforms all existing methods trained on the same robotic data, including pi_0.5-KI, OpenVLA-OFT and SmolVLA. Furthermore, without large-scale robotics-specific training, it outperforms methods trained on large-scale robotic data, like pi_0.5-KI, pi_0, GR00T-N1 and MolmoAct. These findings also translate to the real world, where VLA-0 outperforms SmolVLA, a VLA model pre-trained on large-scale real data. This paper summarizes our unexpected findings and spells out the specific techniques required to unlock the high performance of this simple yet potent VLA design. Visual results, code, and trained models are provided here: https://vla0.github.io/.
PDF123December 21, 2025