4족 보행 로봇을 위한 접촉 기반 고유수용성 주행 거리 측정법
Contact-Anchored Proprioceptive Odometry for Quadruped Robots
February 19, 2026
저자: Minxing Sun, Yao Mao
cs.AI
초록
카메라나 LiDAR 없이 다족 보행 로봇의 신뢰할 수 있는 오도메트리는 IMU 드리프트와 잡음이 섞인 관절 속도 센싱으로 인해 여전히 어려운 과제입니다. 본 논문은 순수하게 수용성 감각만을 사용하는 상태 추정기를 제안하며, IMU와 모터 측정값만을 이용하여 몸체 자세와 속도를 함께 추정하고, 이족 보행, 사족 보행, 휠-레그 혼합 로봇에 모두 적용 가능한 통합 형식을 갖춥니다. 핵심 아이디어는 각 접촉 중인 다리를 운동학적 앵커로 처리하는 것입니다: 관절 토크 기반 발 렌치 추정으로 신뢰할 수 있는 접촉을 선별하고, 해당 발걸음 위치가 장기 드리프트를 억제하는 간헐적인 월드 프레임 제약을 제공합니다. 장거리 주행 동안 고도 드리프트를 방지하기 위해, 새로 기록된 발걸음 높이를 이전에 관측된 지지 평면에 맞추는 경량화된 높이 클러스터링 및 시간 감쇠 보정을 도입합니다. 인코더 양자화 하에서 발 속도 관측을 개선하기 위해, 관절 각도와 속도에서 직접 발 끝 속도를 필터링하는 역운동학 큐비처 칼만 필터를 적용합니다. 구현은 또한 다중 접촉 기하학적 일관성을 통해 요우 드리프트를 추가로 완화하고, IMU 요우 제약을 사용할 수 없거나 신뢰할 수 없을 때 운동학적으로 유도된 헤딩 기준으로 우아하게 성능을 저하시킵니다. 본 방법을 폐루프 궤적을 사용하여 네 가지 사족 보행 플랫폼(Astrall 로봇 3대와 Unitree Go2 EDU 1대)에서 평가합니다. Astrall 포인트 풋 로봇 A에서는 약 200m 수평 루프와 약 15m 수직 루프가 각각 0.1638m 및 0.219m 오차로 복귀했습니다. 휠-레그 로봇 B에서는 해당 오차가 0.2264m 및 0.199m였습니다. 휠-레그 로봇 C에서는 약 700m 수평 루프가 7.68m 오차를, 약 20m 수직 루프가 0.540m 오차를 발생시켰습니다. Unitree Go2 EDU는 약 120m 수평 루프를 2.2138m 오차로 마감하고, 약 8m 수직 루프를 수직 오차 0.1m 미만으로 마감했습니다. github.com/ShineMinxing/Ros2Go2Estimator.git
English
Reliable odometry for legged robots without cameras or LiDAR remains challenging due to IMU drift and noisy joint velocity sensing. This paper presents a purely proprioceptive state estimator that uses only IMU and motor measurements to jointly estimate body pose and velocity, with a unified formulation applicable to biped, quadruped, and wheel-legged robots. The key idea is to treat each contacting leg as a kinematic anchor: joint-torque--based foot wrench estimation selects reliable contacts, and the corresponding footfall positions provide intermittent world-frame constraints that suppress long-term drift. To prevent elevation drift during extended traversal, we introduce a lightweight height clustering and time-decay correction that snaps newly recorded footfall heights to previously observed support planes. To improve foot velocity observations under encoder quantization, we apply an inverse-kinematics cubature Kalman filter that directly filters foot-end velocities from joint angles and velocities. The implementation further mitigates yaw drift through multi-contact geometric consistency and degrades gracefully to a kinematics-derived heading reference when IMU yaw constraints are unavailable or unreliable. We evaluate the method on four quadruped platforms (three Astrall robots and a Unitree Go2 EDU) using closed-loop trajectories. On Astrall point-foot robot~A, a sim200\,m horizontal loop and a sim15\,m vertical loop return with 0.1638\,m and 0.219\,m error, respectively; on wheel-legged robot~B, the corresponding errors are 0.2264\,m and 0.199\,m. On wheel-legged robot~C, a sim700\,m horizontal loop yields 7.68\,m error and a sim20\,m vertical loop yields 0.540\,m error. Unitree Go2 EDU closes a sim120\,m horizontal loop with 2.2138\,m error and a sim8\,m vertical loop with less than 0.1\,m vertical error. github.com/ShineMinxing/Ros2Go2Estimator.git