ChatPaper.aiChatPaper

Embody 3D: Un Conjunto de Datos Multimodal a Gran Escala de Movimiento y Comportamiento

Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset

October 17, 2025
Autores: Claire McLean, Makenzie Meendering, Tristan Swartz, Orri Gabbay, Alexandra Olsen, Rachel Jacobs, Nicholas Rosen, Philippe de Bree, Tony Garcia, Gadsden Merrill, Jake Sandakly, Julia Buffalini, Neham Jain, Steven Krenn, Moneish Kumar, Dejan Markovic, Evonne Ng, Fabian Prada, Andrew Saba, Siwei Zhang, Vasu Agrawal, Tim Godisart, Alexander Richard, Michael Zollhoefer
cs.AI

Resumen

El Laboratorio de Avatares Codec en Meta presenta Embody 3D, un conjunto de datos multimodal que incluye 500 horas individuales de datos de movimiento en 3D de 439 participantes, recopilados en una etapa de captura multicámara, lo que suma más de 54 millones de cuadros de movimiento 3D rastreado. El conjunto de datos abarca una amplia gama de movimientos de una sola persona, incluyendo movimientos guiados, gestos manuales y locomoción; así como datos de comportamiento y conversación entre múltiples personas, como discusiones, conversaciones en diferentes estados emocionales, actividades colaborativas y escenarios de convivencia en un espacio similar a un apartamento. Proporcionamos movimiento humano rastreado, incluyendo seguimiento de manos y forma corporal, anotaciones de texto y una pista de audio separada para cada participante.
English
The Codec Avatars Lab at Meta introduces Embody 3D, a multimodal dataset of 500 individual hours of 3D motion data from 439 participants collected in a multi-camera collection stage, amounting to over 54 million frames of tracked 3D motion. The dataset features a wide range of single-person motion data, including prompted motions, hand gestures, and locomotion; as well as multi-person behavioral and conversational data like discussions, conversations in different emotional states, collaborative activities, and co-living scenarios in an apartment-like space. We provide tracked human motion including hand tracking and body shape, text annotations, and a separate audio track for each participant.
PDF62October 21, 2025