ChatPaper.aiChatPaper

VLA-Adapter : Un paradigme efficace pour les modèles vision-langage-action à très petite échelle

VLA-Adapter: An Effective Paradigm for Tiny-Scale Vision-Language-Action Model

September 11, 2025
papers.authors: Yihao Wang, Pengxiang Ding, Lingxiao Li, Can Cui, Zirui Ge, Xinyang Tong, Wenxuan Song, Han Zhao, Wei Zhao, Pengxu Hou, Siteng Huang, Yifan Tang, Wenhui Wang, Ru Zhang, Jianyi Liu, Donglin Wang
cs.AI

papers.abstract

Les modèles Vision-Langage-Action (VLA) comblent généralement l'écart entre les espaces perceptuels et d'action en pré-entraînant un modèle Vision-Langage (VLM) à grande échelle sur des données robotiques. Bien que cette approche améliore considérablement les performances, elle entraîne également des coûts d'entraînement importants. Dans cet article, nous étudions comment relier efficacement les représentations vision-langage (VL) à l'action (A). Nous introduisons VLA-Adapter, un nouveau paradigme conçu pour réduire la dépendance des modèles VLA envers les VLM à grande échelle et le pré-entraînement extensif. Pour ce faire, nous analysons d'abord systématiquement l'efficacité de diverses conditions VL et présentons des conclusions clés sur les conditions essentielles pour relier les espaces perceptuels et d'action. Sur la base de ces insights, nous proposons un module de Politique léger avec Attention de Pont, qui injecte automatiquement la condition optimale dans l'espace d'action. Ainsi, notre méthode atteint des performances élevées en utilisant uniquement un backbone de 0,5 milliard de paramètres, sans aucun pré-entraînement sur des données robotiques. Des expériences approfondies sur des benchmarks robotiques simulés et réels démontrent que VLA-Adapter non seulement atteint des performances de pointe, mais offre également la vitesse d'inférence la plus rapide rapportée à ce jour. De plus, grâce au paradigme de pontage avancé proposé, VLA-Adapter permet l'entraînement d'un modèle VLA puissant en seulement 8 heures sur un seul GPU grand public, abaissant considérablement la barrière au déploiement du modèle VLA. Page du projet : https://vla-adapter.github.io/.
English
Vision-Language-Action (VLA) models typically bridge the gap between perceptual and action spaces by pre-training a large-scale Vision-Language Model (VLM) on robotic data. While this approach greatly enhances performance, it also incurs significant training costs. In this paper, we investigate how to effectively bridge vision-language (VL) representations to action (A). We introduce VLA-Adapter, a novel paradigm designed to reduce the reliance of VLA models on large-scale VLMs and extensive pre-training. To this end, we first systematically analyze the effectiveness of various VL conditions and present key findings on which conditions are essential for bridging perception and action spaces. Based on these insights, we propose a lightweight Policy module with Bridge Attention, which autonomously injects the optimal condition into the action space. In this way, our method achieves high performance using only a 0.5B-parameter backbone, without any robotic data pre-training. Extensive experiments on both simulated and real-world robotic benchmarks demonstrate that VLA-Adapter not only achieves state-of-the-art level performance, but also offers the fast inference speed reported to date. Furthermore, thanks to the proposed advanced bridging paradigm, VLA-Adapter enables the training of a powerful VLA model in just 8 hours on a single consumer-grade GPU, greatly lowering the barrier to deploying the VLA model. Project page: https://vla-adapter.github.io/.
PDF1143September 12, 2025