ChatPaper.aiChatPaper

VLA-Adapter: Un Paradigma Eficaz para Modelos de Visión-Lenguaje-Acción a Escala Reducida

VLA-Adapter: An Effective Paradigm for Tiny-Scale Vision-Language-Action Model

September 11, 2025
Autores: Yihao Wang, Pengxiang Ding, Lingxiao Li, Can Cui, Zirui Ge, Xinyang Tong, Wenxuan Song, Han Zhao, Wei Zhao, Pengxu Hou, Siteng Huang, Yifan Tang, Wenhui Wang, Ru Zhang, Jianyi Liu, Donglin Wang
cs.AI

Resumen

Los modelos Visión-Lenguaje-Acción (VLA, por sus siglas en inglés) suelen cerrar la brecha entre los espacios perceptuales y de acción mediante el preentrenamiento de un modelo de Visión-Lenguaje (VLM) a gran escala con datos robóticos. Aunque este enfoque mejora significativamente el rendimiento, también conlleva costos de entrenamiento considerables. En este artículo, investigamos cómo conectar de manera efectiva las representaciones de visión-lenguaje (VL) con la acción (A). Presentamos VLA-Adapter, un paradigma novedoso diseñado para reducir la dependencia de los modelos VLA en VLMs a gran escala y en extensos procesos de preentrenamiento. Para ello, primero analizamos sistemáticamente la efectividad de diversas condiciones VL y presentamos hallazgos clave sobre qué condiciones son esenciales para conectar los espacios perceptuales y de acción. Basándonos en estas conclusiones, proponemos un módulo de Política ligero con Atención de Puente, que inyecta automáticamente la condición óptima en el espacio de acción. De esta manera, nuestro método logra un alto rendimiento utilizando únicamente un backbone de 0.5 mil millones de parámetros, sin necesidad de preentrenamiento con datos robóticos. Experimentos exhaustivos en benchmarks robóticos tanto simulados como del mundo real demuestran que VLA-Adapter no solo alcanza un rendimiento de vanguardia, sino que también ofrece la velocidad de inferencia más rápida reportada hasta la fecha. Además, gracias al paradigma de conexión avanzado propuesto, VLA-Adapter permite entrenar un potente modelo VLA en solo 8 horas utilizando una única GPU de consumo, reduciendo significativamente la barrera para la implementación del modelo VLA. Página del proyecto: https://vla-adapter.github.io/.
English
Vision-Language-Action (VLA) models typically bridge the gap between perceptual and action spaces by pre-training a large-scale Vision-Language Model (VLM) on robotic data. While this approach greatly enhances performance, it also incurs significant training costs. In this paper, we investigate how to effectively bridge vision-language (VL) representations to action (A). We introduce VLA-Adapter, a novel paradigm designed to reduce the reliance of VLA models on large-scale VLMs and extensive pre-training. To this end, we first systematically analyze the effectiveness of various VL conditions and present key findings on which conditions are essential for bridging perception and action spaces. Based on these insights, we propose a lightweight Policy module with Bridge Attention, which autonomously injects the optimal condition into the action space. In this way, our method achieves high performance using only a 0.5B-parameter backbone, without any robotic data pre-training. Extensive experiments on both simulated and real-world robotic benchmarks demonstrate that VLA-Adapter not only achieves state-of-the-art level performance, but also offers the fast inference speed reported to date. Furthermore, thanks to the proposed advanced bridging paradigm, VLA-Adapter enables the training of a powerful VLA model in just 8 hours on a single consumer-grade GPU, greatly lowering the barrier to deploying the VLA model. Project page: https://vla-adapter.github.io/.
PDF1153September 12, 2025