ChatPaper.aiChatPaper

Embody 3D:大規模マルチモーダル動作・行動データセット

Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset

October 17, 2025
著者: Claire McLean, Makenzie Meendering, Tristan Swartz, Orri Gabbay, Alexandra Olsen, Rachel Jacobs, Nicholas Rosen, Philippe de Bree, Tony Garcia, Gadsden Merrill, Jake Sandakly, Julia Buffalini, Neham Jain, Steven Krenn, Moneish Kumar, Dejan Markovic, Evonne Ng, Fabian Prada, Andrew Saba, Siwei Zhang, Vasu Agrawal, Tim Godisart, Alexander Richard, Michael Zollhoefer
cs.AI

要旨

MetaのCodec Avatars Labは、Embody 3Dを紹介します。これは、マルチカメラ収集ステージで439名の参加者から収集された500時間に及ぶ3Dモーションデータのマルチモーダルデータセットであり、追跡された3Dモーションのフレーム数は5400万を超えます。このデータセットは、指示された動き、手のジェスチャー、移動などの単独のモーションデータに加えて、ディスカッション、異なる感情状態での会話、共同活動、アパートのような空間での共同生活シナリオなどの複数人の行動および会話データを幅広くカバーしています。各参加者に対して、手の追跡や体型を含む人間のモーション、テキストアノテーション、および別々のオーディオトラックを提供しています。
English
The Codec Avatars Lab at Meta introduces Embody 3D, a multimodal dataset of 500 individual hours of 3D motion data from 439 participants collected in a multi-camera collection stage, amounting to over 54 million frames of tracked 3D motion. The dataset features a wide range of single-person motion data, including prompted motions, hand gestures, and locomotion; as well as multi-person behavioral and conversational data like discussions, conversations in different emotional states, collaborative activities, and co-living scenarios in an apartment-like space. We provide tracked human motion including hand tracking and body shape, text annotations, and a separate audio track for each participant.
PDF62October 21, 2025