ChatPaper.aiChatPaper

VLA-0: Construindo VLAs de Última Geração sem Nenhuma Modificação

VLA-0: Building State-of-the-Art VLAs with Zero Modification

October 15, 2025
Autores: Ankit Goyal, Hugo Hadfield, Xuning Yang, Valts Blukis, Fabio Ramos
cs.AI

Resumo

Os modelos Visão-Linguagem-Ação (VLAs) possuem um imenso potencial para habilitar a manipulação robótica generalista. No entanto, a melhor maneira de construí-los ainda é uma questão em aberto. As abordagens atuais frequentemente adicionam complexidade, como modificar o vocabulário existente de um Modelo de Visão-Linguagem (VLM) com tokens de ação ou introduzir cabeças de ação especiais. Curiosamente, a estratégia mais simples de representar ações diretamente como texto permaneceu amplamente inexplorada. Este trabalho introduz o VLA-0 para investigar essa ideia. Descobrimos que o VLA-0 não apenas é eficaz; ele é surpreendentemente poderoso. Com o design adequado, o VLA-0 supera modelos mais complexos. No LIBERO, um benchmark popular para avaliação de VLAs, o VLA-0 supera todos os métodos existentes treinados com os mesmos dados robóticos, incluindo pi_0.5-KI, OpenVLA-OFT e SmolVLA. Além disso, sem treinamento em larga escala específico para robótica, ele supera métodos treinados com grandes volumes de dados robóticos, como pi_0.5-KI, pi_0, GR00T-N1 e MolmoAct. Esses achados também se traduzem para o mundo real, onde o VLA-0 supera o SmolVLA, um modelo VLA pré-treinado com grandes volumes de dados reais. Este artigo resume nossas descobertas inesperadas e detalha as técnicas específicas necessárias para desbloquear o alto desempenho desse design VLA simples, porém potente. Resultados visuais, código e modelos treinados são fornecidos aqui: https://vla0.github.io/.
English
Vision-Language-Action models (VLAs) hold immense promise for enabling generalist robot manipulation. However, the best way to build them remains an open question. Current approaches often add complexity, such as modifying the existing vocabulary of a Vision-Language Model (VLM) with action tokens or introducing special action heads. Curiously, the simplest strategy of representing actions directly as text has remained largely unexplored. This work introduces VLA-0 to investigate this idea. We find that VLA-0 is not only effective; it is surprisingly powerful. With the right design, VLA-0 outperforms more involved models. On LIBERO, a popular benchmark for evaluating VLAs, VLA-0 outperforms all existing methods trained on the same robotic data, including pi_0.5-KI, OpenVLA-OFT and SmolVLA. Furthermore, without large-scale robotics-specific training, it outperforms methods trained on large-scale robotic data, like pi_0.5-KI, pi_0, GR00T-N1 and MolmoAct. These findings also translate to the real world, where VLA-0 outperforms SmolVLA, a VLA model pre-trained on large-scale real data. This paper summarizes our unexpected findings and spells out the specific techniques required to unlock the high performance of this simple yet potent VLA design. Visual results, code, and trained models are provided here: https://vla0.github.io/.
PDF123December 21, 2025