ChatPaper.aiChatPaper

Прагматическая фундаментальная модель VLA

A Pragmatic VLA Foundation Model

January 26, 2026
Авторы: Wei Wu, Fan Lu, Yunnan Wang, Shuai Yang, Shi Liu, Fangjing Wang, Qian Zhu, He Sun, Yong Wang, Shuailei Ma, Yiyu Ren, Kejia Zhang, Hui Yu, Jingmei Zhao, Shuai Zhou, Zhenqi Qiu, Houlong Xiong, Ziyu Wang, Zechen Wang, Ran Cheng, Yong-Lu Li, Yongtao Huang, Xing Zhu, Yujun Shen, Kecheng Zheng
cs.AI

Аннотация

Обладая значительным потенциалом в области роботизированного манипулирования, перспективная фулдамент-модель «Зрение-Язык-Действие» (Vision-Language-Action, VLA) должна обеспечивать достоводную генерализацию для различных задач и платформ, сохраняя при этом экономическую эффективность (например, с точки зрения объема данных и GPU-часов, необходимых для адаптации). Для достижения этой цели мы разработали модель LingBot-VLA, обученную на примерно 20 000 часах реальных данных, собранных с 9 популярных конфигураций двухруких роботов. В ходе систематической оценки на 3 роботизированных платформах, каждая из которых выполнила 100 задач с 130 эпизодами на задачу после обучения, наша модель продемонстрировала явное превосходство над аналогами, подтвердив свою высокую производительность и широкую обобщающую способность. Мы также создали эффективную кодобазу, которая обеспечивает пропускную способность 261 семпл в секунду на один GPU при обучении на 8 GPU, что соответствует ускорению в 1.5–2.8 раза (в зависимости от используемой базовой VLM-модели) по сравнению с существующими кодобазами, ориентированными на VLA. Вышеуказанные характеристики гарантируют, что наша модель хорошо подходит для развертывания в реальных условиях. Для развития области обучения роботов мы предоставляем открытый доступ к коду, базовой модели и бенчмарк-данным, стремясь способствовать решению более сложных задач и внедрению надежных стандартов оценки.
English
Offering great potential in robotic manipulation, a capable Vision-Language-Action (VLA) foundation model is expected to faithfully generalize across tasks and platforms while ensuring cost efficiency (e.g., data and GPU hours required for adaptation). To this end, we develop LingBot-VLA with around 20,000 hours of real-world data from 9 popular dual-arm robot configurations. Through a systematic assessment on 3 robotic platforms, each completing 100 tasks with 130 post-training episodes per task, our model achieves clear superiority over competitors, showcasing its strong performance and broad generalizability. We have also built an efficient codebase, which delivers a throughput of 261 samples per second per GPU with an 8-GPU training setup, representing a 1.5~2.8times (depending on the relied VLM base model) speedup over existing VLA-oriented codebases. The above features ensure that our model is well-suited for real-world deployment. To advance the field of robot learning, we provide open access to the code, base model, and benchmark data, with a focus on enabling more challenging tasks and promoting sound evaluation standards.
PDF262January 29, 2026