ChatPaper.aiChatPaper

VLA-0: Costruire VLA all'avanguardia senza alcuna modifica

VLA-0: Building State-of-the-Art VLAs with Zero Modification

October 15, 2025
Autori: Ankit Goyal, Hugo Hadfield, Xuning Yang, Valts Blukis, Fabio Ramos
cs.AI

Abstract

I modelli Vision-Language-Action (VLA) promettono enormemente di abilitare la manipolazione robotica generalista. Tuttavia, il modo migliore per costruirli rimane una questione aperta. Gli approcci attuali spesso aggiungono complessità, come modificare il vocabolario esistente di un modello Vision-Language (VLM) con token di azione o introdurre speciali "teste di azione". Curiosamente, la strategia più semplice di rappresentare direttamente le azioni come testo è rimasta in gran parte inesplorata. Questo lavoro introduce VLA-0 per indagare questa idea. Scopriamo che VLA-0 non solo è efficace; è sorprendentemente potente. Con il giusto design, VLA-0 supera modelli più complessi. Su LIBERO, un popolare benchmark per valutare i VLA, VLA-0 supera tutti i metodi esistenti addestrati sugli stessi dati robotici, inclusi pi_0.5-KI, OpenVLA-OFT e SmolVLA. Inoltre, senza un addestramento su larga scala specifico per la robotica, supera metodi addestrati su grandi quantità di dati robotici, come pi_0.5-KI, pi_0, GR00T-N1 e MolmoAct. Questi risultati si traducono anche nel mondo reale, dove VLA-0 supera SmolVLA, un modello VLA pre-addestrato su grandi quantità di dati reali. Questo articolo riassume le nostre scoperte inaspettate e descrive le tecniche specifiche necessarie per sbloccare le alte prestazioni di questo design VLA semplice ma potente. Risultati visivi, codice e modelli addestrati sono forniti qui: https://vla0.github.io/.
English
Vision-Language-Action models (VLAs) hold immense promise for enabling generalist robot manipulation. However, the best way to build them remains an open question. Current approaches often add complexity, such as modifying the existing vocabulary of a Vision-Language Model (VLM) with action tokens or introducing special action heads. Curiously, the simplest strategy of representing actions directly as text has remained largely unexplored. This work introduces VLA-0 to investigate this idea. We find that VLA-0 is not only effective; it is surprisingly powerful. With the right design, VLA-0 outperforms more involved models. On LIBERO, a popular benchmark for evaluating VLAs, VLA-0 outperforms all existing methods trained on the same robotic data, including pi_0.5-KI, OpenVLA-OFT and SmolVLA. Furthermore, without large-scale robotics-specific training, it outperforms methods trained on large-scale robotic data, like pi_0.5-KI, pi_0, GR00T-N1 and MolmoAct. These findings also translate to the real world, where VLA-0 outperforms SmolVLA, a VLA model pre-trained on large-scale real data. This paper summarizes our unexpected findings and spells out the specific techniques required to unlock the high performance of this simple yet potent VLA design. Visual results, code, and trained models are provided here: https://vla0.github.io/.
PDF82October 17, 2025