ChatPaper.aiChatPaper

Reconstruindo Humanos com um Esqueleto Biomecanicamente Preciso

Reconstructing Humans with a Biomechanically Accurate Skeleton

March 27, 2025
Autores: Yan Xia, Xiaowei Zhou, Etienne Vouga, Qixing Huang, Georgios Pavlakos
cs.AI

Resumo

Neste artigo, apresentamos um método para reconstruir humanos em 3D a partir de uma única imagem utilizando um modelo esquelético biomecanicamente preciso. Para isso, treinamos um transformer que recebe uma imagem como entrada e estima os parâmetros do modelo. Devido à escassez de dados de treinamento para essa tarefa, construímos um pipeline para gerar parâmetros de modelo pseudo ground truth para imagens únicas e implementamos um procedimento de treinamento que refina iterativamente esses rótulos pseudo. Em comparação com os métodos state-of-the-art para recuperação de malha humana em 3D, nosso modelo alcança desempenho competitivo em benchmarks padrão, enquanto supera significativamente esses métodos em cenários com poses e pontos de vista extremos em 3D. Além disso, mostramos que métodos anteriores de reconstrução frequentemente violam os limites de ângulo das articulações, resultando em rotações não naturais. Em contraste, nossa abordagem aproveita os graus de liberdade biomecanicamente plausíveis, produzindo estimativas de rotação das articulações mais realistas. Validamos nossa abordagem em múltiplos benchmarks de estimativa de pose humana. Disponibilizamos o código, modelos e dados em: https://isshikihugh.github.io/HSMR/
English
In this paper, we introduce a method for reconstructing 3D humans from a single image using a biomechanically accurate skeleton model. To achieve this, we train a transformer that takes an image as input and estimates the parameters of the model. Due to the lack of training data for this task, we build a pipeline to produce pseudo ground truth model parameters for single images and implement a training procedure that iteratively refines these pseudo labels. Compared to state-of-the-art methods for 3D human mesh recovery, our model achieves competitive performance on standard benchmarks, while it significantly outperforms them in settings with extreme 3D poses and viewpoints. Additionally, we show that previous reconstruction methods frequently violate joint angle limits, leading to unnatural rotations. In contrast, our approach leverages the biomechanically plausible degrees of freedom making more realistic joint rotation estimates. We validate our approach across multiple human pose estimation benchmarks. We make the code, models and data available at: https://isshikihugh.github.io/HSMR/

Summary

AI-Generated Summary

PDF92March 31, 2025