ChatPaper.aiChatPaper

Embody 3D: Een grootschalige multimodale dataset voor beweging en gedrag

Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset

October 17, 2025
Auteurs: Claire McLean, Makenzie Meendering, Tristan Swartz, Orri Gabbay, Alexandra Olsen, Rachel Jacobs, Nicholas Rosen, Philippe de Bree, Tony Garcia, Gadsden Merrill, Jake Sandakly, Julia Buffalini, Neham Jain, Steven Krenn, Moneish Kumar, Dejan Markovic, Evonne Ng, Fabian Prada, Andrew Saba, Siwei Zhang, Vasu Agrawal, Tim Godisart, Alexander Richard, Michael Zollhoefer
cs.AI

Samenvatting

Het Codec Avatars Lab van Meta introduceert Embody 3D, een multimodale dataset van 500 individuele uren aan 3D-bewegingsgegevens van 439 deelnemers, verzameld in een multi-camera-opstelling, wat neerkomt op meer dan 54 miljoen frames van gevolgde 3D-bewegingen. De dataset bevat een breed scala aan bewegingsgegevens van individuele personen, waaronder opgewekte bewegingen, handgebaren en voortbeweging; evenals gedrags- en gespreksgegevens van meerdere personen, zoals discussies, gesprekken in verschillende emotionele toestanden, samenwerkende activiteiten en samenlevingsscenario's in een appartementachtige ruimte. Wij bieden gevolgde menselijke bewegingen inclusief handtracking en lichaamsvorm, tekstannotaties en een apart audiospoor voor elke deelnemer.
English
The Codec Avatars Lab at Meta introduces Embody 3D, a multimodal dataset of 500 individual hours of 3D motion data from 439 participants collected in a multi-camera collection stage, amounting to over 54 million frames of tracked 3D motion. The dataset features a wide range of single-person motion data, including prompted motions, hand gestures, and locomotion; as well as multi-person behavioral and conversational data like discussions, conversations in different emotional states, collaborative activities, and co-living scenarios in an apartment-like space. We provide tracked human motion including hand tracking and body shape, text annotations, and a separate audio track for each participant.
PDF72December 23, 2025