ChatPaper.aiChatPaper

VLA-Adapter: Un Paradigma Efficace per Modelli Visione-Linguaggio-Azione su Scala Ridotta

VLA-Adapter: An Effective Paradigm for Tiny-Scale Vision-Language-Action Model

September 11, 2025
Autori: Yihao Wang, Pengxiang Ding, Lingxiao Li, Can Cui, Zirui Ge, Xinyang Tong, Wenxuan Song, Han Zhao, Wei Zhao, Pengxu Hou, Siteng Huang, Yifan Tang, Wenhui Wang, Ru Zhang, Jianyi Liu, Donglin Wang
cs.AI

Abstract

I modelli Vision-Language-Action (VLA) colmano tipicamente il divario tra gli spazi percettivi e quelli d'azione pre-addestrando un modello Vision-Language (VLM) su larga scala con dati robotici. Sebbene questo approccio migliori notevolmente le prestazioni, comporta anche costi di addestramento significativi. In questo articolo, indaghiamo come collegare efficacemente le rappresentazioni vision-language (VL) all'azione (A). Introduciamo VLA-Adapter, un paradigma innovativo progettato per ridurre la dipendenza dei modelli VLA da VLM su larga scala e da un esteso pre-addestramento. A tal fine, analizziamo sistematicamente l'efficacia di varie condizioni VL e presentiamo risultati chiave su quali condizioni sono essenziali per collegare gli spazi percettivi e d'azione. Sulla base di queste intuizioni, proponiamo un modulo Policy leggero con Bridge Attention, che inietta autonomamente la condizione ottimale nello spazio d'azione. In questo modo, il nostro metodo raggiunge alte prestazioni utilizzando solo un backbone da 0,5 miliardi di parametri, senza alcun pre-addestramento su dati robotici. Esperimenti estesi su benchmark robotici sia simulati che nel mondo reale dimostrano che VLA-Adapter non solo raggiunge prestazioni di livello state-of-the-art, ma offre anche la velocità di inferenza più rapida riportata fino ad oggi. Inoltre, grazie al paradigma avanzato di collegamento proposto, VLA-Adapter consente l'addestramento di un potente modello VLA in sole 8 ore su una singola GPU di livello consumer, abbattendo notevolmente le barriere alla distribuzione del modello VLA. Pagina del progetto: https://vla-adapter.github.io/.
English
Vision-Language-Action (VLA) models typically bridge the gap between perceptual and action spaces by pre-training a large-scale Vision-Language Model (VLM) on robotic data. While this approach greatly enhances performance, it also incurs significant training costs. In this paper, we investigate how to effectively bridge vision-language (VL) representations to action (A). We introduce VLA-Adapter, a novel paradigm designed to reduce the reliance of VLA models on large-scale VLMs and extensive pre-training. To this end, we first systematically analyze the effectiveness of various VL conditions and present key findings on which conditions are essential for bridging perception and action spaces. Based on these insights, we propose a lightweight Policy module with Bridge Attention, which autonomously injects the optimal condition into the action space. In this way, our method achieves high performance using only a 0.5B-parameter backbone, without any robotic data pre-training. Extensive experiments on both simulated and real-world robotic benchmarks demonstrate that VLA-Adapter not only achieves state-of-the-art level performance, but also offers the fast inference speed reported to date. Furthermore, thanks to the proposed advanced bridging paradigm, VLA-Adapter enables the training of a powerful VLA model in just 8 hours on a single consumer-grade GPU, greatly lowering the barrier to deploying the VLA model. Project page: https://vla-adapter.github.io/.
PDF2316September 12, 2025