SimVLA: Een Eenvoudige VLA-basislijn voor Robotmanipulatie
SimVLA: A Simple VLA Baseline for Robotic Manipulation
February 20, 2026
Auteurs: Yuankai Luo, Woping Chen, Tong Liang, Baiqiao Wang, Zhenguo Li
cs.AI
Samenvatting
Vision-Language-Action (VLA)-modellen zijn naar voren gekomen als een veelbelovend paradigma voor robotmanipulatie met algemene toepassingen, waarbij gebruik wordt gemaakt van grootschalige voorafgaande training om sterke prestaties te bereiken. Het vakgebied is snel geëvolueerd met aanvullende ruimtelijke aannames en diverse architectonische innovaties. Deze vooruitgang gaat echter vaak gepaard met uiteenlopende trainingsmethoden en implementatiedetails, waardoor het lastig kan zijn om de precieze bron van empirische verbeteringen te identificeren. In dit werk introduceren we SimVLA, een gestroomlijnde basislijn die is ontworpen om een transparant referentiepunt voor VLA-onderzoek te bieden. Door perceptie strikt te scheiden van controle, met behulp van een standaard vision-language-backbone en een lichtgewicht actiehoofd, en door kritieke trainingsdynamiek te standaardiseren, tonen we aan dat een minimaal ontwerp state-of-the-art prestaties kan bereiken. Ondanks slechts 0,5B parameters presteert SimVLA beter dan modellen met miljarden parameters op standaard simulatiebenchmarks, zonder voorafgaande training op robots. SimVLA bereikt tevens vergelijkbare prestaties op echte robots in vergelijking met pi0.5. Onze resultaten vestigen SimVLA als een robuuste, reproduceerbare basislijn die duidelijke toeschrijving van empirische winsten aan toekomstige architectonische innovaties mogelijk maakt. Website: https://frontierrobo.github.io/SimVLA
English
Vision-Language-Action (VLA) models have emerged as a promising paradigm for general-purpose robotic manipulation, leveraging large-scale pre-training to achieve strong performance. The field has rapidly evolved with additional spatial priors and diverse architectural innovations. However, these advancements are often accompanied by varying training recipes and implementation details, which can make it challenging to disentangle the precise source of empirical gains. In this work, we introduce SimVLA, a streamlined baseline designed to establish a transparent reference point for VLA research. By strictly decoupling perception from control, using a standard vision-language backbone and a lightweight action head, and standardizing critical training dynamics, we demonstrate that a minimal design can achieve state-of-the-art performance. Despite having only 0.5B parameters, SimVLA outperforms multi-billion-parameter models on standard simulation benchmarks without robot pretraining. SimVLA also reaches on-par real-robot performance compared to pi0.5. Our results establish SimVLA as a robust, reproducible baseline that enables clear attribution of empirical gains to future architectural innovations. Website: https://frontierrobo.github.io/SimVLA