ChatPaper.aiChatPaper

BitVLA: 1-Bit Vision-Language-Aktionsmodelle für die Robotermanipulation

BitVLA: 1-bit Vision-Language-Action Models for Robotics Manipulation

June 9, 2025
Autoren: Hongyu Wang, Chuyan Xiong, Ruiping Wang, Xilin Chen
cs.AI

Zusammenfassung

Vision-Language-Action (VLA)-Modelle haben beeindruckende Fähigkeiten bei einer Vielzahl von Robotermanipulationsaufgaben gezeigt. Ihre zunehmende Modellgröße stellt jedoch erhebliche Herausforderungen für den Einsatz auf ressourcenbeschränkten Robotersystemen dar. Während sich das 1-Bit-Pretraining als effektiv erwiesen hat, um die Inferenzeffizienz großer Sprachmodelle bei minimalem Leistungsverlust zu verbessern, ist seine Anwendung auf VLA-Modelle noch weitgehend unerforscht. In dieser Arbeit präsentieren wir BitVLA, das erste 1-Bit-VLA-Modell für die Robotermanipulation, bei dem jeder Parameter ternär ist, d.h. {-1, 0, 1}. Um den Speicherbedarf des Vision-Encoders weiter zu reduzieren, schlagen wir die distilationsbewusste Trainingsstrategie vor, die den Encoder mit voller Präzision auf 1,58-Bit-Gewichte komprimiert. Während dieses Prozesses dient ein Encoder mit voller Präzision als Lehrer-Modell, um latente Repräsentationen besser auszurichten. Trotz des Mangels an groß angelegtem Robotik-Pretraining erreicht BitVLA eine Leistung, die mit dem state-of-the-art Modell OpenVLA-OFT mit 4-Bit-Post-Training-Quantisierung auf dem LIBERO-Benchmark vergleichbar ist, während nur 29,8 % des Speichers verbraucht werden. Diese Ergebnisse unterstreichen das Potenzial von BitVLA für den Einsatz auf speicherbeschränkten Edge-Geräten. Wir veröffentlichen den Code und die Modellgewichte unter https://github.com/ustcwhy/BitVLA.
English
Vision-Language-Action (VLA) models have shown impressive capabilities across a wide range of robotics manipulation tasks. However, their growing model size poses significant challenges for deployment on resource-constrained robotic systems. While 1-bit pretraining has proven effective for enhancing the inference efficiency of large language models with minimal performance loss, its application to VLA models remains underexplored. In this work, we present BitVLA, the first 1-bit VLA model for robotics manipulation, in which every parameter is ternary, i.e., {-1, 0, 1}. To further reduce the memory footprint of the vision encoder, we propose the distillation-aware training strategy that compresses the full-precision encoder to 1.58-bit weights. During this process, a full-precision encoder serves as a teacher model to better align latent representations. Despite the lack of large-scale robotics pretraining, BitVLA achieves performance comparable to the state-of-the-art model OpenVLA-OFT with 4-bit post-training quantization on the LIBERO benchmark, while consuming only 29.8% of the memory. These results highlight BitVLA's promise for deployment on memory-constrained edge devices. We release the code and model weights in https://github.com/ustcwhy/BitVLA.
PDF172June 10, 2025