ChatPaper.aiChatPaper

리만 운동 생성: 리만 흐름 정합을 통한 인간 운동 표현 및 생성을 위한 통합 프레임워크

Riemannian Motion Generation: A Unified Framework for Human Motion Representation and Generation via Riemannian Flow Matching

March 16, 2026
저자: Fangran Miao, Jian Huang, Ting Li
cs.AI

초록

인간 모션 생성은 유효한 동작이 구조화된 비유클리드 기하학을 따름에도 불구하고 흔히 유클리드 공간에서 학습됩니다. 우리는 모션을 곱다양체 위에서 표현하고 리만 흐름 매칭을 통해 동역학을 학습하는 통합 프레임워크인 리만 모션 생성(RMG)을 제안합니다. RMG는 모션을 여러 다양체 인자로 분해하여 내적 정규화를 갖는 스케일 불변 표현을 생성하며, 훈련 및 샘플링을 위해 측지선 보간, 접공간 감독, 다양체 보존 ODE 적분을 사용합니다. HumanML3D에서 RMG는 HumanML3D 형식에서 최첨단 FID(0.043)를 달성하고 MotionStreamer 형식 하에서 보고된 모든 메트릭에서 1위를 기록했습니다. MotionMillion에서도 강력한 기준선(FID 5.6, R@1 0.86)을 능가했습니다. 애블레이션 연구를 통해 컴팩트한 T+R(병진 + 회전) 표현이 가장 안정적이고 효과적임을 확인하였으며, 이는 기하학 인식 모델링이 고충실도 모션 생성으로 가는 실용적이고 확장 가능한 경로임을 강조합니다.
English
Human motion generation is often learned in Euclidean spaces, although valid motions follow structured non-Euclidean geometry. We present Riemannian Motion Generation (RMG), a unified framework that represents motion on a product manifold and learns dynamics via Riemannian flow matching. RMG factorizes motion into several manifold factors, yielding a scale-free representation with intrinsic normalization, and uses geodesic interpolation, tangent-space supervision, and manifold-preserving ODE integration for training and sampling. On HumanML3D, RMG achieves state-of-the-art FID in the HumanML3D format (0.043) and ranks first on all reported metrics under the MotionStreamer format. On MotionMillion, it also surpasses strong baselines (FID 5.6, R@1 0.86). Ablations show that the compact T+R (translation + rotations) representation is the most stable and effective, highlighting geometry-aware modeling as a practical and scalable route to high-fidelity motion generation.
PDF92March 18, 2026