ChatPaper.aiChatPaper

로보브레인 2.5: 시야의 깊이, 마음의 시간

RoboBrain 2.5: Depth in Sight, Time in Mind

January 20, 2026
저자: Huajie Tan, Enshen Zhou, Zhiyu Li, Yijie Xu, Yuheng Ji, Xiansheng Chen, Cheng Chi, Pengwei Wang, Huizhu Jia, Yulong Ao, Mingyu Cao, Sixiang Chen, Zhe Li, Mengzhen Liu, Zixiao Wang, Shanyu Rong, Yaoxu Lyu, Zhongxia Zhao, Peterson Co, Yibo Li, Yi Han, Shaoxuan Xie, Guocai Yao, Songjing Wang, Leiduo Zhang, Xi Yang, Yance Jiao, Donghai Shi, Kunchang Xie, Shaokai Nie, Chunlei Men, Yonghua Lin, Zhongyuan Wang, Tiejun Huang, Shanghang Zhang
cs.AI

초록

로보브레인 2.5를 소개합니다. 이는 차세대 구현형 AI 기초 모델로, 고품질 시공간 감독 데이터를 통한 대규모 학습을 통해 일반적인 인식, 공간 추론 및 시간적 모델링 기능을 향상시킵니다. 이전 모델을 기반으로 한 로보브레인 2.5는 두 가지 주요 능력 업그레이드를 도입했습니다. 구체적으로, 이 모델은 2D 픽셀 상대적 접근에서 깊이 인식 좌표 예측 및 절대적 미터법 제약 조건 이해로 전환하여 **정밀 3D 공간 추론**을 구현합니다. 이를 통해 물리적 제약 조건 하에서 순서가 지정된 키포인트 시퀀스로 완전한 3D 조작 궤적을 생성합니다. 이러한 공간 정밀도를 보완하기 위해, 모델은 다양한 시점에서 단계 인식 진행률 예측과 실행 상태 이해를 제공하는 **조밀 시간적 가치 추정**을 확립하여 하위 작업 학습을 위한 안정적인 피드백 신호를 생성합니다. 이러한 업그레이드를 통해 이 프레임워크는 복잡하고 세분화된 조작을 위한 보다 물리적으로 근거 있고 실행을 인지하는 구현형 지능으로 확장됩니다. 코드와 체크포인트는 프로젝트 웹사이트(https://superrobobrain.github.io)에서 이용할 수 있습니다.
English
We introduce RoboBrain 2.5, a next-generation embodied AI foundation model that advances general perception, spatial reasoning, and temporal modeling through extensive training on high-quality spatiotemporal supervision. Building upon its predecessor, RoboBrain 2.5 introduces two major capability upgrades. Specifically, it unlocks Precise 3D Spatial Reasoning by shifting from 2D pixel-relative grounding to depth-aware coordinate prediction and absolute metric constraint comprehension, generating complete 3D manipulation traces as ordered keypoint sequences under physical constraints. Complementing this spatial precision, the model establishes Dense Temporal Value Estimation that provides dense, step-aware progress prediction and execution state understanding across varying viewpoints, producing stable feedback signals for downstream learning. Together, these upgrades extend the framework toward more physically grounded and execution-aware embodied intelligence for complex, fine-grained manipulation. The code and checkpoints are available at project website: https://superrobobrain.github.io
PDF60January 23, 2026