ChatPaper.aiChatPaper

Reconstrucción de Humanos con un Esqueleto Biomecánicamente Preciso

Reconstructing Humans with a Biomechanically Accurate Skeleton

March 27, 2025
Autores: Yan Xia, Xiaowei Zhou, Etienne Vouga, Qixing Huang, Georgios Pavlakos
cs.AI

Resumen

En este artículo, presentamos un método para reconstruir humanos en 3D a partir de una sola imagen utilizando un modelo esquelético biomecánicamente preciso. Para lograrlo, entrenamos un transformador que toma una imagen como entrada y estima los parámetros del modelo. Debido a la falta de datos de entrenamiento para esta tarea, construimos una canalización para generar parámetros de modelo de pseudo-verdad básica para imágenes individuales e implementamos un procedimiento de entrenamiento que refina iterativamente estas etiquetas pseudo. En comparación con los métodos más avanzados para la recuperación de mallas humanas en 3D, nuestro modelo logra un rendimiento competitivo en puntos de referencia estándar, mientras que supera significativamente a estos en configuraciones con poses y puntos de vista 3D extremos. Además, demostramos que los métodos de reconstrucción anteriores frecuentemente violan los límites de ángulos articulares, lo que resulta en rotaciones antinaturales. En contraste, nuestro enfoque aprovecha los grados de libertad biomecánicamente plausibles, realizando estimaciones de rotación articular más realistas. Validamos nuestro enfoque en múltiples puntos de referencia de estimación de posturas humanas. Ponemos a disposición el código, los modelos y los datos en: https://isshikihugh.github.io/HSMR/
English
In this paper, we introduce a method for reconstructing 3D humans from a single image using a biomechanically accurate skeleton model. To achieve this, we train a transformer that takes an image as input and estimates the parameters of the model. Due to the lack of training data for this task, we build a pipeline to produce pseudo ground truth model parameters for single images and implement a training procedure that iteratively refines these pseudo labels. Compared to state-of-the-art methods for 3D human mesh recovery, our model achieves competitive performance on standard benchmarks, while it significantly outperforms them in settings with extreme 3D poses and viewpoints. Additionally, we show that previous reconstruction methods frequently violate joint angle limits, leading to unnatural rotations. In contrast, our approach leverages the biomechanically plausible degrees of freedom making more realistic joint rotation estimates. We validate our approach across multiple human pose estimation benchmarks. We make the code, models and data available at: https://isshikihugh.github.io/HSMR/

Summary

AI-Generated Summary

PDF92March 31, 2025