ChatPaper.aiChatPaper

Motion Mamba: 계층적 및 양방향 선택적 SSM을 통한 효율적이고 긴 시퀀스 모션 생성

Motion Mamba: Efficient and Long Sequence Motion Generation with Hierarchical and Bidirectional Selective SSM

March 12, 2024
저자: Zeyu Zhang, Akide Liu, Ian Reid, Richard Hartley, Bohan Zhuang, Hao Tang
cs.AI

초록

인간 동작 생성은 생성적 컴퓨터 비전 분야에서 중요한 과제로 자리 잡고 있으며, 긴 시퀀스와 효율적인 동작 생성을 달성하는 것은 여전히 도전적인 과제로 남아 있습니다. 최근 상태 공간 모델(SSMs), 특히 Mamba의 발전은 효율적인 하드웨어 인식 설계를 통해 긴 시퀀스 모델링에서 상당한 가능성을 보여주었으며, 이는 동작 생성 모델을 구축하기 위한 유망한 방향으로 보입니다. 그러나 SSMs를 동작 생성에 적용하는 것은 동작 시퀀스를 모델링하기 위한 전문화된 설계 아키텍처의 부재로 인해 어려움에 직면해 있습니다. 이러한 문제를 해결하기 위해, 우리는 Motion Mamba를 제안합니다. 이는 SSMs를 활용한 선구적인 동작 생성 모델을 제시하는 간단하고 효율적인 접근 방식입니다. 구체적으로, 우리는 프레임 간의 동작 일관성을 유지하기 위해 대칭적인 U-Net 아키텍처를 통해 다양한 수의 독립적인 SSM 모듈을 앙상블하여 시간적 데이터를 처리하는 Hierarchical Temporal Mamba(HTM) 블록을 설계했습니다. 또한, 시간적 프레임 내에서 정확한 동작 생성을 강화하기 위해 잠재 포즈를 양방향으로 처리하는 Bidirectional Spatial Mamba(BSM) 블록을 설계했습니다. 우리가 제안한 방법은 이전의 최고의 확산 기반 방법과 비교하여 HumanML3D 및 KIT-ML 데이터셋에서 최대 50%의 FID 개선과 최대 4배 빠른 속도를 달성하며, 고품질의 긴 시퀀스 동작 모델링과 실시간 인간 동작 생성의 강력한 능력을 입증했습니다. 프로젝트 웹사이트를 참조하십시오: https://steve-zeyu-zhang.github.io/MotionMamba/
English
Human motion generation stands as a significant pursuit in generative computer vision, while achieving long-sequence and efficient motion generation remains challenging. Recent advancements in state space models (SSMs), notably Mamba, have showcased considerable promise in long sequence modeling with an efficient hardware-aware design, which appears to be a promising direction to build motion generation model upon it. Nevertheless, adapting SSMs to motion generation faces hurdles since the lack of a specialized design architecture to model motion sequence. To address these challenges, we propose Motion Mamba, a simple and efficient approach that presents the pioneering motion generation model utilized SSMs. Specifically, we design a Hierarchical Temporal Mamba (HTM) block to process temporal data by ensemble varying numbers of isolated SSM modules across a symmetric U-Net architecture aimed at preserving motion consistency between frames. We also design a Bidirectional Spatial Mamba (BSM) block to bidirectionally process latent poses, to enhance accurate motion generation within a temporal frame. Our proposed method achieves up to 50% FID improvement and up to 4 times faster on the HumanML3D and KIT-ML datasets compared to the previous best diffusion-based method, which demonstrates strong capabilities of high-quality long sequence motion modeling and real-time human motion generation. See project website https://steve-zeyu-zhang.github.io/MotionMamba/

Summary

AI-Generated Summary

PDF174December 15, 2024