BitVLA: Modelli Visione-Linguaggio-Azione a 1 bit per la Manipolazione Robotica
BitVLA: 1-bit Vision-Language-Action Models for Robotics Manipulation
June 9, 2025
Autori: Hongyu Wang, Chuyan Xiong, Ruiping Wang, Xilin Chen
cs.AI
Abstract
I modelli Vision-Language-Action (VLA) hanno dimostrato capacità impressionanti in un'ampia gamma di attività di manipolazione robotica. Tuttavia, le loro dimensioni crescenti pongono sfide significative per il dispiegamento su sistemi robotici con risorse limitate. Sebbene il pre-addestramento a 1 bit si sia dimostrato efficace per migliorare l'efficienza inferenziale di grandi modelli linguistici con una minima perdita di prestazioni, la sua applicazione ai modelli VLA rimane poco esplorata. In questo lavoro, presentiamo BitVLA, il primo modello VLA a 1 bit per la manipolazione robotica, in cui ogni parametro è ternario, ovvero {-1, 0, 1}. Per ridurre ulteriormente l'impronta di memoria dell'encoder visivo, proponiamo una strategia di addestramento consapevole della distillazione che comprime l'encoder a precisione completa in pesi a 1,58 bit. Durante questo processo, un encoder a precisione completa funge da modello insegnante per allineare meglio le rappresentazioni latenti. Nonostante la mancanza di un pre-addestramento robotico su larga scala, BitVLA raggiunge prestazioni paragonabili al modello all'avanguardia OpenVLA-OFT con quantizzazione post-addestramento a 4 bit sul benchmark LIBERO, consumando solo il 29,8% della memoria. Questi risultati evidenziano il potenziale di BitVLA per il dispiegamento su dispositivi edge con memoria limitata. Rilasciamo il codice e i pesi del modello su https://github.com/ustcwhy/BitVLA.
English
Vision-Language-Action (VLA) models have shown impressive capabilities across
a wide range of robotics manipulation tasks. However, their growing model size
poses significant challenges for deployment on resource-constrained robotic
systems. While 1-bit pretraining has proven effective for enhancing the
inference efficiency of large language models with minimal performance loss,
its application to VLA models remains underexplored. In this work, we present
BitVLA, the first 1-bit VLA model for robotics manipulation, in which every
parameter is ternary, i.e., {-1, 0, 1}. To further reduce the memory footprint
of the vision encoder, we propose the distillation-aware training strategy that
compresses the full-precision encoder to 1.58-bit weights. During this process,
a full-precision encoder serves as a teacher model to better align latent
representations. Despite the lack of large-scale robotics pretraining, BitVLA
achieves performance comparable to the state-of-the-art model OpenVLA-OFT with
4-bit post-training quantization on the LIBERO benchmark, while consuming only
29.8% of the memory. These results highlight BitVLA's promise for deployment on
memory-constrained edge devices. We release the code and model weights in
https://github.com/ustcwhy/BitVLA.