ChatPaper.aiChatPaper

VLANeXt: Recepten voor het Bouwen van Robuuste VLA-modellen

VLANeXt: Recipes for Building Strong VLA Models

February 20, 2026
Auteurs: Xiao-Ming Wu, Bin Fan, Kang Liao, Jian-Jian Jiang, Runze Yang, Yihang Luo, Zhonghua Wu, Wei-Shi Zheng, Chen Change Loy
cs.AI

Samenvatting

Na de opkomst van grote foundation-modellen zijn Vision-Language-Action-modellen (VLA's) ontstaan, die sterke visuele en taalkundige begripsvaardigheden benutten voor het leren van algemeen toepasbare beleidsregels. Desalniettemin blijft het huidige VLA-landschap gefragmenteerd en verkennend. Hoewel veel groepen hun eigen VLA-modellen hebben voorgesteld, maken inconsistenties in trainingsprotocollen en evaluatie-opstellingen het moeilijk om te identificeren welke ontwerpkeuzes er echt toe doen. Om structuur aan te brengen in deze evoluerende ruimte, heronderzoeken we de VLA-ontwerpruimte binnen een uniform raamwerk en evaluatieopzet. Uitgaande van een eenvoudige VLA-baseline, vergelijkbaar met RT-2 en OpenVLA, ontleden we systematisch ontwerpkeuzes langs drie dimensies: fundamentele componenten, perceptie-essentiële elementen en actiemodelleringsperspectieven. Uit deze studie destilleren we 12 belangrijke bevindingen die samen een praktisch recept vormen voor het bouwen van robuuste VLA-modellen. Het resultaat van deze verkenning is een eenvoudig maar effectief model, VLANeXt. VLANeXt overtreft eerdere state-of-the-art methoden op de LIBERO- en LIBERO-plus benchmarks en toont sterke generalisatie in real-world experimenten. We zullen een uniforme, gebruiksvriendelijke codebase vrijgeven die dient als een gemeenschappelijk platform voor de gemeenschap om onze bevindingen te reproduceren, de ontwerpruimte te verkennen en nieuwe VLA-varianten te bouwen op een gedeelde basis.
English
Following the rise of large foundation models, Vision-Language-Action models (VLAs) emerged, leveraging strong visual and language understanding for general-purpose policy learning. Yet, the current VLA landscape remains fragmented and exploratory. Although many groups have proposed their own VLA models, inconsistencies in training protocols and evaluation settings make it difficult to identify which design choices truly matter. To bring structure to this evolving space, we reexamine the VLA design space under a unified framework and evaluation setup. Starting from a simple VLA baseline similar to RT-2 and OpenVLA, we systematically dissect design choices along three dimensions: foundational components, perception essentials, and action modelling perspectives. From this study, we distill 12 key findings that together form a practical recipe for building strong VLA models. The outcome of this exploration is a simple yet effective model, VLANeXt. VLANeXt outperforms prior state-of-the-art methods on the LIBERO and LIBERO-plus benchmarks and demonstrates strong generalization in real-world experiments. We will release a unified, easy-to-use codebase that serves as a common platform for the community to reproduce our findings, explore the design space, and build new VLA variants on top of a shared foundation.
PDF524March 28, 2026