ChatPaper.aiChatPaper

Un Modello di Base Pragmatico per il VLA

A Pragmatic VLA Foundation Model

January 26, 2026
Autori: Wei Wu, Fan Lu, Yunnan Wang, Shuai Yang, Shi Liu, Fangjing Wang, Qian Zhu, He Sun, Yong Wang, Shuailei Ma, Yiyu Ren, Kejia Zhang, Hui Yu, Jingmei Zhao, Shuai Zhou, Zhenqi Qiu, Houlong Xiong, Ziyu Wang, Zechen Wang, Ran Cheng, Yong-Lu Li, Yongtao Huang, Xing Zhu, Yujun Shen, Kecheng Zheng
cs.AI

Abstract

Dotato di un grande potenziale nella manipolazione robotica, un modello base VLA (Vision-Language-Action) capace è atteso per generalizzare fedelmente tra diversi compiti e piattaforme, garantendo al contempo efficienza dei costi (ad esempio, in termini di dati e ore di GPU necessarie per l'adattamento). A tal fine, abbiamo sviluppato LingBot-VLA utilizzando circa 20.000 ore di dati del mondo reale provenienti da 9 configurazioni popolari di robot a doppio braccio. Attraverso una valutazione sistematica su 3 piattaforme robotiche, ciascuna delle quali ha completato 100 compiti con 130 episodi post-addestramento per compito, il nostro modello ha dimostrato una chiara superiorità rispetto ai concorrenti, evidenziando le sue solide prestazioni e un'ampia generalizzabilità. Abbiamo inoltre realizzato una codebase efficiente, che garantisce una velocità di elaborazione di 261 campioni al secondo per GPU con una configurazione di addestramento a 8 GPU, rappresentando un incremento di velocità di 1,5~2,8 volte (a seconda del modello base VLM utilizzato) rispetto alle codebase esistenti orientate al VLA. Le caratteristiche sopra descritte garantiscono che il nostro modello sia ben adatto per un impiego nel mondo reale. Per far progredire il campo dell'apprendimento robotico, forniamo libero accesso al codice, al modello base e ai dati di benchmark, con l'obiettivo di abilitare compiti più impegnativi e promuovere standard di valutazione solidi.
English
Offering great potential in robotic manipulation, a capable Vision-Language-Action (VLA) foundation model is expected to faithfully generalize across tasks and platforms while ensuring cost efficiency (e.g., data and GPU hours required for adaptation). To this end, we develop LingBot-VLA with around 20,000 hours of real-world data from 9 popular dual-arm robot configurations. Through a systematic assessment on 3 robotic platforms, each completing 100 tasks with 130 post-training episodes per task, our model achieves clear superiority over competitors, showcasing its strong performance and broad generalizability. We have also built an efficient codebase, which delivers a throughput of 261 samples per second per GPU with an 8-GPU training setup, representing a 1.5~2.8times (depending on the relied VLM base model) speedup over existing VLA-oriented codebases. The above features ensure that our model is well-suited for real-world deployment. To advance the field of robot learning, we provide open access to the code, base model, and benchmark data, with a focus on enabling more challenging tasks and promoting sound evaluation standards.
PDF464February 8, 2026