Ein pragmatisches VLA-Foundation-Modell
A Pragmatic VLA Foundation Model
January 26, 2026
papers.authors: Wei Wu, Fan Lu, Yunnan Wang, Shuai Yang, Shi Liu, Fangjing Wang, Qian Zhu, He Sun, Yong Wang, Shuailei Ma, Yiyu Ren, Kejia Zhang, Hui Yu, Jingmei Zhao, Shuai Zhou, Zhenqi Qiu, Houlong Xiong, Ziyu Wang, Zechen Wang, Ran Cheng, Yong-Lu Li, Yongtao Huang, Xing Zhu, Yujun Shen, Kecheng Zheng
cs.AI
papers.abstract
Vision-Language-Action (VLA)-Basismodelle bieten ein großes Potenzial für die robotische Manipulation. Ein leistungsfähiges Modell dieser Art soll Aufgaben und Plattformen zuverlässig verallgemeinern können und dabei Kosteneffizienz gewährleisten (z. B. hinsichtlich der für die Anpassung benötigten Datenmenge und GPU-Stunden). Zu diesem Zweck entwickeln wir LingBot-VLA auf Basis von etwa 20.000 Stunden realer Daten von 9 gängigen Zweiarm-Roboter-Konfigurationen. In einer systematischen Evaluation auf 3 Roboterplattformen, bei der jede 100 Aufgaben mit 130 Episoden pro Aufgabe nach dem Training absolvierte, erzielt unser Modell eine deutliche Überlegenheit gegenüber Mitbewerbern und demonstriert damit seine hohe Leistungsfähigkeit und breite Generalisierbarkeit. Wir haben zudem eine effiziente Codebase entwickelt, die einen Durchsatz von 261 Samples pro Sekunde pro GPU in einer 8-GPU-Trainingskonfiguration erreicht. Dies stellt eine Beschleunigung um das 1,5- bis 2,8-fache (abhängig vom zugrundeliegenden VLA-Basismodell) im Vergleich zu bestehenden VLA-orientierten Codebases dar. Die genannten Eigenschaften stellen sicher, dass unser Modell gut für den Einsatz in der Praxis geeignet ist. Um das Gebiet des Robotik-Lernens voranzubringen, stellen wir Code, Basismodell und Benchmark-Daten offen zur Verfügung, mit dem Ziel, anspruchsvollere Aufgaben zu ermöglichen und solide Evaluierungsstandards zu fördern.
English
Offering great potential in robotic manipulation, a capable Vision-Language-Action (VLA) foundation model is expected to faithfully generalize across tasks and platforms while ensuring cost efficiency (e.g., data and GPU hours required for adaptation). To this end, we develop LingBot-VLA with around 20,000 hours of real-world data from 9 popular dual-arm robot configurations. Through a systematic assessment on 3 robotic platforms, each completing 100 tasks with 130 post-training episodes per task, our model achieves clear superiority over competitors, showcasing its strong performance and broad generalizability. We have also built an efficient codebase, which delivers a throughput of 261 samples per second per GPU with an 8-GPU training setup, representing a 1.5~2.8times (depending on the relied VLM base model) speedup over existing VLA-oriented codebases. The above features ensure that our model is well-suited for real-world deployment. To advance the field of robot learning, we provide open access to the code, base model, and benchmark data, with a focus on enabling more challenging tasks and promoting sound evaluation standards.