ChatPaper.aiChatPaper

Rapport Technique GR-Dexter

GR-Dexter Technical Report

December 30, 2025
papers.authors: Ruoshi Wen, Guangzeng Chen, Zhongren Cui, Min Du, Yang Gou, Zhigang Han, Liqun Huang, Mingyu Lei, Yunfei Li, Zhuohang Li, Wenlei Liu, Yuxiao Liu, Xiao Ma, Hao Niu, Yutao Ouyang, Zeyu Ren, Haixin Shi, Wei Xu, Haoxiang Zhang, Jiajun Zhang, Xiao Zhang, Liwei Zheng, Weiheng Zhong, Yifei Zhou, Zhengming Zhu, Hang Li
cs.AI

papers.abstract

Les modèles vision-langage-action (VLA) ont permis la manipulation robotique à long terme conditionnée par le langage, mais la plupart des systèmes existants se limitent à des pinces. La mise à l'échelle des politiques VLA pour des robots bimanuels dotés de mains dextres à haut degré de liberté (DDL) reste difficile en raison de l'espace d'action élargi, des occlusions fréquentes main-objet et du coût de collecte de données sur robot réel. Nous présentons GR-Dexter, un cadre matériel-modèle-données holistique pour la manipulation généraliste basée sur VLA sur un robot bimanuel à mains dextres. Notre approche combine la conception d'une main robotique compacte à 21 DDL, un système de téléopération bimanuel intuitif pour la collecte de données réelles, et une méthode d'entraînement qui exploite des trajectoires robotiques téléopérées ainsi que des ensembles de données vision-langage à grande échelle et soigneusement sélectionnés d'embodiment croisé. Lors d'évaluations en conditions réelles couvrant la manipulation quotidienne à long terme et la prise-et-place généralisable, GR-Dexter démontre de fortes performances en domaine connu et une robustesse améliorée face à des objets et des instructions non vus. Nous espérons que GR-Dexter constitue une étape pratique vers la manipulation robotique généraliste avec des mains dextres.
English
Vision-language-action (VLA) models have enabled language-conditioned, long-horizon robot manipulation, but most existing systems are limited to grippers. Scaling VLA policies to bimanual robots with high degree-of-freedom (DoF) dexterous hands remains challenging due to the expanded action space, frequent hand-object occlusions, and the cost of collecting real-robot data. We present GR-Dexter, a holistic hardware-model-data framework for VLA-based generalist manipulation on a bimanual dexterous-hand robot. Our approach combines the design of a compact 21-DoF robotic hand, an intuitive bimanual teleoperation system for real-robot data collection, and a training recipe that leverages teleoperated robot trajectories together with large-scale vision-language and carefully curated cross-embodiment datasets. Across real-world evaluations spanning long-horizon everyday manipulation and generalizable pick-and-place, GR-Dexter achieves strong in-domain performance and improved robustness to unseen objects and unseen instructions. We hope GR-Dexter serves as a practical step toward generalist dexterous-hand robotic manipulation.
PDF112January 2, 2026