ChatPaper.aiChatPaper

VLA-0: Entwicklung modernster VLAs ohne Modifikationen

VLA-0: Building State-of-the-Art VLAs with Zero Modification

October 15, 2025
papers.authors: Ankit Goyal, Hugo Hadfield, Xuning Yang, Valts Blukis, Fabio Ramos
cs.AI

papers.abstract

Vision-Language-Action-Modelle (VLAs) bergen ein enormes Potenzial für die Ermöglichung allgemeiner Roboter-Manipulation. Die beste Methode zu ihrer Entwicklung bleibt jedoch eine offene Frage. Aktuelle Ansätze fügen oft Komplexität hinzu, wie beispielsweise die Modifikation des bestehenden Vokabulars eines Vision-Language-Modells (VLM) mit Aktions-Tokens oder die Einführung spezieller Aktions-Köpfe. Merkwürdigerweise ist die einfachste Strategie, Aktionen direkt als Text darzustellen, weitgehend unerforscht geblieben. Diese Arbeit stellt VLA-0 vor, um diese Idee zu untersuchen. Wir stellen fest, dass VLA-0 nicht nur effektiv ist, sondern überraschend leistungsstark. Mit dem richtigen Design übertrifft VLA-0 komplexere Modelle. Auf LIBERO, einem beliebten Benchmark zur Bewertung von VLAs, übertrifft VLA-0 alle bestehenden Methoden, die mit denselben Roboter-Daten trainiert wurden, einschließlich pi_0.5-KI, OpenVLA-OFT und SmolVLA. Darüber hinaus übertrifft es ohne groß angelegtes roboterspezifisches Training Methoden, die mit groß angelegten Roboter-Daten trainiert wurden, wie pi_0.5-KI, pi_0, GR00T-N1 und MolmoAct. Diese Ergebnisse übertragen sich auch auf die reale Welt, wo VLA-0 SmolVLA, ein VLA-Modell, das mit groß angelegten realen Daten vortrainiert wurde, übertrifft. Dieses Papier fasst unsere unerwarteten Erkenntnisse zusammen und erläutert die spezifischen Techniken, die erforderlich sind, um die hohe Leistung dieses einfachen, aber leistungsstarken VLA-Designs freizusetzen. Visuelle Ergebnisse, Code und trainierte Modelle sind hier verfügbar: https://vla0.github.io/.
English
Vision-Language-Action models (VLAs) hold immense promise for enabling generalist robot manipulation. However, the best way to build them remains an open question. Current approaches often add complexity, such as modifying the existing vocabulary of a Vision-Language Model (VLM) with action tokens or introducing special action heads. Curiously, the simplest strategy of representing actions directly as text has remained largely unexplored. This work introduces VLA-0 to investigate this idea. We find that VLA-0 is not only effective; it is surprisingly powerful. With the right design, VLA-0 outperforms more involved models. On LIBERO, a popular benchmark for evaluating VLAs, VLA-0 outperforms all existing methods trained on the same robotic data, including pi_0.5-KI, OpenVLA-OFT and SmolVLA. Furthermore, without large-scale robotics-specific training, it outperforms methods trained on large-scale robotic data, like pi_0.5-KI, pi_0, GR00T-N1 and MolmoAct. These findings also translate to the real world, where VLA-0 outperforms SmolVLA, a VLA model pre-trained on large-scale real data. This paper summarizes our unexpected findings and spells out the specific techniques required to unlock the high performance of this simple yet potent VLA design. Visual results, code, and trained models are provided here: https://vla0.github.io/.
PDF82October 17, 2025