SimVLA: Una Semplice Baseline VLA per la Manipolazione Robotica
SimVLA: A Simple VLA Baseline for Robotic Manipulation
February 20, 2026
Autori: Yuankai Luo, Woping Chen, Tong Liang, Baiqiao Wang, Zhenguo Li
cs.AI
Abstract
I modelli Vision-Language-Action (VLA) sono emersi come un paradigma promettente per la manipolazione robotica generica, sfruttando il pre-addestramento su larga scala per ottenere prestazioni elevate. Il campo si è rapidamente evoluto con l'aggiunta di prior spaziali e diverse innovazioni architetturali. Tuttavia, questi progressi sono spesso accompagnati da ricette di addestramento e dettagli implementativi variabili, il che può rendere difficile individuare la fonte precisa dei miglioramenti empirici. In questo lavoro, introduciamo SimVLA, una baseline semplificata progettata per stabilire un punto di riferimento trasparente per la ricerca VLA. Disaccoppiando rigorosamente la percezione dal controllo, utilizzando un'architettura standard vision-language e una testa di azione leggera, e standardizzando le dinamiche critiche di addestramento, dimostriamo che un design minimale può raggiungere prestazioni allo stato dell'arte. Nonostante abbia solo 0,5 miliardi di parametri, SimVLA supera modelli con miliardi di parametri sui benchmark di simulazione standard, senza pre-addestramento su robot. SimVLA raggiunge anche prestazioni su robot reali paragonabili a quelle di pi0.5. I nostri risultati stabiliscono SimVLA come una baseline robusta e riproducibile che consente una chiara attribuzione dei miglioramenti empirici alle future innovazioni architetturali. Sito web: https://frontierrobo.github.io/SimVLA
English
Vision-Language-Action (VLA) models have emerged as a promising paradigm for general-purpose robotic manipulation, leveraging large-scale pre-training to achieve strong performance. The field has rapidly evolved with additional spatial priors and diverse architectural innovations. However, these advancements are often accompanied by varying training recipes and implementation details, which can make it challenging to disentangle the precise source of empirical gains. In this work, we introduce SimVLA, a streamlined baseline designed to establish a transparent reference point for VLA research. By strictly decoupling perception from control, using a standard vision-language backbone and a lightweight action head, and standardizing critical training dynamics, we demonstrate that a minimal design can achieve state-of-the-art performance. Despite having only 0.5B parameters, SimVLA outperforms multi-billion-parameter models on standard simulation benchmarks without robot pretraining. SimVLA also reaches on-par real-robot performance compared to pi0.5. Our results establish SimVLA as a robust, reproducible baseline that enables clear attribution of empirical gains to future architectural innovations. Website: https://frontierrobo.github.io/SimVLA