SimVLA: Eine einfache VLA-Basisarchitektur für robotische Manipulation
SimVLA: A Simple VLA Baseline for Robotic Manipulation
February 20, 2026
papers.authors: Yuankai Luo, Woping Chen, Tong Liang, Baiqiao Wang, Zhenguo Li
cs.AI
papers.abstract
Vision-Language-Action (VLA)-Modelle haben sich als vielversprechendes Paradigma für universelle Robotersteuerung etabliert, das großskaliges Pre-Training nutzt, um hohe Leistungsfähigkeit zu erreichen. Das Feld hat sich rapide weiterentwickelt, ergänzt durch zusätzliche räumliche Priors und diverse architektonische Innovationen. Diese Fortschritte gehen jedoch oft mit unterschiedlichen Trainingsrezepten und Implementierungsdetails einher, was es schwierig machen kann, die genaue Quelle empirischer Verbesserungen zu identifizieren. In dieser Arbeit stellen wir SimVLA vor, eine vereinfachte Baseline, die als transparenter Referenzpunkt für die VLA-Forschung dienen soll. Durch strikte Entkopplung von Wahrnehmung und Steuerung, die Verwendung eines standardmäßigen Vision-Language-Backbones und eines leichten Action-Heads sowie die Standardisierung kritischer Trainingsdynamiken zeigen wir, dass ein minimales Design State-of-the-Art-Leistung erreichen kann. Trotz nur 0,5B Parametern übertrifft SimVLA Modelle mit mehreren Milliarden Parametern in standardisierten Simulationsbenchmarks ohne Robotervorabtraining. SimVLA erreicht zudem vergleichbare Leistung auf realen Robotern wie pi0.5. Unsere Ergebnisse etablieren SimVLA als eine robuste, reproduzierbare Baseline, die eine klare Zuordnung empirischer Gewinne zu zukünftigen Architekturinnovationen ermöglicht. Webseite: https://frontierrobo.github.io/SimVLA
English
Vision-Language-Action (VLA) models have emerged as a promising paradigm for general-purpose robotic manipulation, leveraging large-scale pre-training to achieve strong performance. The field has rapidly evolved with additional spatial priors and diverse architectural innovations. However, these advancements are often accompanied by varying training recipes and implementation details, which can make it challenging to disentangle the precise source of empirical gains. In this work, we introduce SimVLA, a streamlined baseline designed to establish a transparent reference point for VLA research. By strictly decoupling perception from control, using a standard vision-language backbone and a lightweight action head, and standardizing critical training dynamics, we demonstrate that a minimal design can achieve state-of-the-art performance. Despite having only 0.5B parameters, SimVLA outperforms multi-billion-parameter models on standard simulation benchmarks without robot pretraining. SimVLA also reaches on-par real-robot performance compared to pi0.5. Our results establish SimVLA as a robust, reproducible baseline that enables clear attribution of empirical gains to future architectural innovations. Website: https://frontierrobo.github.io/SimVLA