ChatPaper.aiChatPaper

Embody 3D: Ein groß angelegter multimodaler Datensatz für Bewegung und Verhalten

Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset

October 17, 2025
papers.authors: Claire McLean, Makenzie Meendering, Tristan Swartz, Orri Gabbay, Alexandra Olsen, Rachel Jacobs, Nicholas Rosen, Philippe de Bree, Tony Garcia, Gadsden Merrill, Jake Sandakly, Julia Buffalini, Neham Jain, Steven Krenn, Moneish Kumar, Dejan Markovic, Evonne Ng, Fabian Prada, Andrew Saba, Siwei Zhang, Vasu Agrawal, Tim Godisart, Alexander Richard, Michael Zollhoefer
cs.AI

papers.abstract

Das Codec Avatars Lab bei Meta stellt Embody 3D vor, einen multimodalen Datensatz, der 500 individuelle Stunden an 3D-Bewegungsdaten von 439 Teilnehmern umfasst, die in einer Multi-Kamera-Aufnahmestation erfasst wurden. Dies entspricht über 54 Millionen Frames von getrackter 3D-Bewegung. Der Datensatz beinhaltet eine breite Palette von Einzelpersonen-Bewegungsdaten, einschließlich vorgegebener Bewegungen, Handgesten und Fortbewegung, sowie Mehrpersonen-Verhaltens- und Konversationsdaten wie Diskussionen, Gespräche in verschiedenen emotionalen Zuständen, kooperative Aktivitäten und gemeinschaftliche Szenarien in einem wohnungsähnlichen Raum. Wir bieten getrackte menschliche Bewegungen, einschließlich Handtracking und Körperform, Textannotationen sowie einen separaten Audiokanal für jeden Teilnehmer.
English
The Codec Avatars Lab at Meta introduces Embody 3D, a multimodal dataset of 500 individual hours of 3D motion data from 439 participants collected in a multi-camera collection stage, amounting to over 54 million frames of tracked 3D motion. The dataset features a wide range of single-person motion data, including prompted motions, hand gestures, and locomotion; as well as multi-person behavioral and conversational data like discussions, conversations in different emotional states, collaborative activities, and co-living scenarios in an apartment-like space. We provide tracked human motion including hand tracking and body shape, text annotations, and a separate audio track for each participant.
PDF62October 21, 2025