ChatPaper.aiChatPaper

Um Modelo de Fundação Pragmático para o VLA

A Pragmatic VLA Foundation Model

January 26, 2026
Autores: Wei Wu, Fan Lu, Yunnan Wang, Shuai Yang, Shi Liu, Fangjing Wang, Qian Zhu, He Sun, Yong Wang, Shuailei Ma, Yiyu Ren, Kejia Zhang, Hui Yu, Jingmei Zhao, Shuai Zhou, Zhenqi Qiu, Houlong Xiong, Ziyu Wang, Zechen Wang, Ran Cheng, Yong-Lu Li, Yongtao Huang, Xing Zhu, Yujun Shen, Kecheng Zheng
cs.AI

Resumo

Com grande potencial na manipulação robótica, espera-se que um modelo de base Vision-Language-Action (VLA) capaz generalize fielmente entre tarefas e plataformas, garantindo simultaneamente eficiência de custos (por exemplo, dados e horas de GPU necessárias para adaptação). Para esse fim, desenvolvemos o LingBot-VLA com cerca de 20.000 horas de dados do mundo real provenientes de 9 configurações populares de robôs de braço duplo. Através de uma avaliação sistemática em 3 plataformas robóticas, cada uma completando 100 tarefas com 130 episódios pós-treinamento por tarefa, nosso modelo alcança uma clara superioridade sobre os concorrentes, demonstrando seu forte desempenho e ampla generalizabilidade. Também construímos uma base de código eficiente, que oferece um throughput de 261 amostras por segundo por GPU com uma configuração de treinamento de 8 GPUs, representando uma aceleração de 1,5 a 2,8 vezes (dependendo do modelo base VLM utilizado) em relação às bases de código existentes orientadas a VLA. As características acima garantem que nosso modelo seja adequado para implantação no mundo real. Para avançar o campo da aprendizagem de robôs, disponibilizamos acesso aberto ao código, modelo base e dados de benchmark, com foco em permitir tarefas mais desafiadoras e promover padrões de avaliação sólidos.
English
Offering great potential in robotic manipulation, a capable Vision-Language-Action (VLA) foundation model is expected to faithfully generalize across tasks and platforms while ensuring cost efficiency (e.g., data and GPU hours required for adaptation). To this end, we develop LingBot-VLA with around 20,000 hours of real-world data from 9 popular dual-arm robot configurations. Through a systematic assessment on 3 robotic platforms, each completing 100 tasks with 130 post-training episodes per task, our model achieves clear superiority over competitors, showcasing its strong performance and broad generalizability. We have also built an efficient codebase, which delivers a throughput of 261 samples per second per GPU with an 8-GPU training setup, representing a 1.5~2.8times (depending on the relied VLM base model) speedup over existing VLA-oriented codebases. The above features ensure that our model is well-suited for real-world deployment. To advance the field of robot learning, we provide open access to the code, base model, and benchmark data, with a focus on enabling more challenging tasks and promoting sound evaluation standards.
PDF464February 8, 2026