ChatPaper.aiChatPaper

VLA-Adapter: Um Paradigma Eficiente para Modelos Visão-Linguagem-Ação em Escala Reduzida

VLA-Adapter: An Effective Paradigm for Tiny-Scale Vision-Language-Action Model

September 11, 2025
Autores: Yihao Wang, Pengxiang Ding, Lingxiao Li, Can Cui, Zirui Ge, Xinyang Tong, Wenxuan Song, Han Zhao, Wei Zhao, Pengxu Hou, Siteng Huang, Yifan Tang, Wenhui Wang, Ru Zhang, Jianyi Liu, Donglin Wang
cs.AI

Resumo

Os modelos Visão-Linguagem-Ação (VLA, na sigla em inglês) normalmente conectam a lacuna entre os espaços perceptivo e de ação por meio do pré-treinamento de um Modelo de Visão-Linguagem (VLM) em grande escala com dados robóticos. Embora essa abordagem melhore significativamente o desempenho, ela também acarreta custos elevados de treinamento. Neste artigo, investigamos como conectar efetivamente as representações de visão-linguagem (VL) à ação (A). Apresentamos o VLA-Adapter, um novo paradigma projetado para reduzir a dependência dos modelos VLA em VLMs de grande escala e em extensos pré-treinamentos. Para isso, primeiro analisamos sistematicamente a eficácia de várias condições de VL e apresentamos descobertas essenciais sobre quais condições são fundamentais para conectar os espaços perceptivo e de ação. Com base nessas análises, propomos um módulo de Política leve com Atenção de Ponte, que injeta automaticamente a condição ideal no espaço de ação. Dessa forma, nosso método alcança alto desempenho utilizando apenas uma arquitetura base com 0,5 bilhão de parâmetros, sem qualquer pré-treinamento com dados robóticos. Experimentos extensivos em benchmarks robóticos simulados e do mundo real demonstram que o VLA-Adapter não apenas atinge desempenho de ponta, mas também oferece a velocidade de inferência mais rápida já relatada. Além disso, graças ao paradigma avançado de ponte proposto, o VLA-Adapter permite o treinamento de um modelo VLA poderoso em apenas 8 horas em uma única GPU de nível consumidor, reduzindo significativamente a barreira para a implantação do modelo VLA. Página do projeto: https://vla-adapter.github.io/.
English
Vision-Language-Action (VLA) models typically bridge the gap between perceptual and action spaces by pre-training a large-scale Vision-Language Model (VLM) on robotic data. While this approach greatly enhances performance, it also incurs significant training costs. In this paper, we investigate how to effectively bridge vision-language (VL) representations to action (A). We introduce VLA-Adapter, a novel paradigm designed to reduce the reliance of VLA models on large-scale VLMs and extensive pre-training. To this end, we first systematically analyze the effectiveness of various VL conditions and present key findings on which conditions are essential for bridging perception and action spaces. Based on these insights, we propose a lightweight Policy module with Bridge Attention, which autonomously injects the optimal condition into the action space. In this way, our method achieves high performance using only a 0.5B-parameter backbone, without any robotic data pre-training. Extensive experiments on both simulated and real-world robotic benchmarks demonstrate that VLA-Adapter not only achieves state-of-the-art level performance, but also offers the fast inference speed reported to date. Furthermore, thanks to the proposed advanced bridging paradigm, VLA-Adapter enables the training of a powerful VLA model in just 8 hours on a single consumer-grade GPU, greatly lowering the barrier to deploying the VLA model. Project page: https://vla-adapter.github.io/.
PDF1484September 12, 2025