ChatPaper.aiChatPaper

Un Modelo Fundacional Pragmático para el VLA

A Pragmatic VLA Foundation Model

January 26, 2026
Autores: Wei Wu, Fan Lu, Yunnan Wang, Shuai Yang, Shi Liu, Fangjing Wang, Qian Zhu, He Sun, Yong Wang, Shuailei Ma, Yiyu Ren, Kejia Zhang, Hui Yu, Jingmei Zhao, Shuai Zhou, Zhenqi Qiu, Houlong Xiong, Ziyu Wang, Zechen Wang, Ran Cheng, Yong-Lu Li, Yongtao Huang, Xing Zhu, Yujun Shen, Kecheng Zheng
cs.AI

Resumen

Con un gran potencial en la manipulación robótica, se espera que un modelo base de Visión-Lenguaje-Acción (VLA) capaz generalice fielmente entre tareas y plataformas, garantizando al mismo tiempo la eficiencia de costes (por ejemplo, datos y horas de GPU necesarias para la adaptación). Con este fin, desarrollamos LingBot-VLA con aproximadamente 20.000 horas de datos del mundo real procedentes de 9 configuraciones populares de robots bimanuales. Mediante una evaluación sistemática en 3 plataformas robóticas, cada una completando 100 tareas con 130 episodios post-entrenamiento por tarea, nuestro modelo demuestra una clara superioridad sobre los competidores, mostrando su sólido rendimiento y amplia capacidad de generalización. También hemos creado una base de código eficiente, que ofrece un rendimiento de 261 muestras por segundo por GPU con una configuración de entrenamiento de 8 GPU, lo que representa una aceleración de 1.5 a 2.8 veces (dependiendo del modelo base VLM utilizado) respecto a las bases de código existentes orientadas a VLA. Estas características garantizan que nuestro modelo sea adecuado para su implementación en entornos reales. Para impulsar el campo del aprendizaje robótico, proporcionamos acceso abierto al código, al modelo base y a los datos de evaluación, con el objetivo de permitir tareas más desafiantes y promover estándares de evaluación sólidos.
English
Offering great potential in robotic manipulation, a capable Vision-Language-Action (VLA) foundation model is expected to faithfully generalize across tasks and platforms while ensuring cost efficiency (e.g., data and GPU hours required for adaptation). To this end, we develop LingBot-VLA with around 20,000 hours of real-world data from 9 popular dual-arm robot configurations. Through a systematic assessment on 3 robotic platforms, each completing 100 tasks with 130 post-training episodes per task, our model achieves clear superiority over competitors, showcasing its strong performance and broad generalizability. We have also built an efficient codebase, which delivers a throughput of 261 samples per second per GPU with an 8-GPU training setup, representing a 1.5~2.8times (depending on the relied VLM base model) speedup over existing VLA-oriented codebases. The above features ensure that our model is well-suited for real-world deployment. To advance the field of robot learning, we provide open access to the code, base model, and benchmark data, with a focus on enabling more challenging tasks and promoting sound evaluation standards.
PDF262January 29, 2026