Embody 3D : Un vaste ensemble de données multimodal sur les mouvements et les comportements
Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset
October 17, 2025
papers.authors: Claire McLean, Makenzie Meendering, Tristan Swartz, Orri Gabbay, Alexandra Olsen, Rachel Jacobs, Nicholas Rosen, Philippe de Bree, Tony Garcia, Gadsden Merrill, Jake Sandakly, Julia Buffalini, Neham Jain, Steven Krenn, Moneish Kumar, Dejan Markovic, Evonne Ng, Fabian Prada, Andrew Saba, Siwei Zhang, Vasu Agrawal, Tim Godisart, Alexander Richard, Michael Zollhoefer
cs.AI
papers.abstract
Le laboratoire Codec Avatars de Meta présente Embody 3D, un ensemble de données multimodales comprenant 500 heures individuelles de données de mouvement 3D provenant de 439 participants, collectées dans un espace équipé de multiples caméras, totalisant plus de 54 millions d'images de mouvement 3D suivies. Ce jeu de données couvre une large gamme de mouvements individuels, incluant des mouvements dirigés, des gestes des mains et des déplacements ; ainsi que des données comportementales et conversationnelles impliquant plusieurs personnes, telles que des discussions, des conversations dans différents états émotionnels, des activités collaboratives et des scénarios de cohabitation dans un espace similaire à un appartement. Nous fournissons le suivi du mouvement humain, y compris le suivi des mains et la morphologie corporelle, des annotations textuelles et une piste audio séparée pour chaque participant.
English
The Codec Avatars Lab at Meta introduces Embody 3D, a multimodal dataset of
500 individual hours of 3D motion data from 439 participants collected in a
multi-camera collection stage, amounting to over 54 million frames of tracked
3D motion. The dataset features a wide range of single-person motion data,
including prompted motions, hand gestures, and locomotion; as well as
multi-person behavioral and conversational data like discussions, conversations
in different emotional states, collaborative activities, and co-living
scenarios in an apartment-like space. We provide tracked human motion including
hand tracking and body shape, text annotations, and a separate audio track for
each participant.