ChatPaper.aiChatPaper

RoboChallenge: Valutazione su larga scala di politiche incorporate con robot reali

RoboChallenge: Large-scale Real-robot Evaluation of Embodied Policies

October 20, 2025
Autori: Adina Yakefu, Bin Xie, Chongyang Xu, Enwen Zhang, Erjin Zhou, Fan Jia, Haitao Yang, Haoqiang Fan, Haowei Zhang, Hongyang Peng, Jing Tan, Junwen Huang, Kai Liu, Kaixin Liu, Kefan Gu, Qinglun Zhang, Ruitao Zhang, Saike Huang, Shen Cheng, Shuaicheng Liu, Tiancai Wang, Tiezhen Wang, Wei Sun, Wenbin Tang, Yajun Wei, Yang Chen, Youqiang Gui, Yucheng Zhao, Yunchao Ma, Yunfei Wei, Yunhuan Yang, Yutong Guo, Ze Chen, Zhengyuan Du, Ziheng Zhang, Ziming Liu, Ziwei Yan
cs.AI

Abstract

Il test su macchine reali è indispensabile per gli algoritmi di controllo robotico. Nel contesto degli algoritmi basati sull'apprendimento, in particolare i modelli VLA, la necessità di una valutazione su larga scala, ovvero testare un gran numero di modelli su un ampio numero di compiti, sta diventando sempre più urgente. Tuttavia, implementare questo processo correttamente è estremamente complesso, specialmente quando si considerano scalabilità e riproducibilità. In questo rapporto, descriviamo la nostra metodologia per la costruzione di RoboChallenge, un sistema di valutazione online per testare algoritmi di controllo robotico, e la nostra indagine sui recenti modelli VLA allo stato dell'arte utilizzando il nostro benchmark iniziale Table30.
English
Testing on real machines is indispensable for robotic control algorithms. In the context of learning-based algorithms, especially VLA models, demand for large-scale evaluation, i.e. testing a large number of models on a large number of tasks, is becoming increasingly urgent. However, doing this right is highly non-trivial, especially when scalability and reproducibility is taken into account. In this report, we describe our methodology for constructing RoboChallenge, an online evaluation system to test robotic control algorithms, and our survey of recent state-of-the-art VLA models using our initial benchmark Table30.
PDF72December 2, 2025