ChatPaper.aiChatPaper

WHAC: Umani e Telecamere Radicati nel Mondo

WHAC: World-grounded Humans and Cameras

March 19, 2024
Autori: Wanqi Yin, Zhongang Cai, Ruisi Wang, Fanzhou Wang, Chen Wei, Haiyi Mei, Weiye Xiao, Zhitao Yang, Qingping Sun, Atsushi Yamashita, Ziwei Liu, Lei Yang
cs.AI

Abstract

Stimare le traiettorie umane e della fotocamera con scala accurata nel sistema di coordinate mondiali a partire da un video monoculare è un problema altamente desiderabile ma complesso e mal posto. In questo studio, miriamo a recuperare modelli parametrici umani espressivi (ad esempio, SMPL-X) e le corrispondenti pose della fotocamera in modo congiunto, sfruttando la sinergia tra tre attori critici: il mondo, l'essere umano e la fotocamera. Il nostro approccio si basa su due osservazioni chiave. In primo luogo, i metodi di stima SMPL-X nel frame della fotocamera recuperano facilmente la profondità assoluta dell'essere umano. In secondo luogo, i movimenti umani forniscono intrinsecamente indizi spaziali assoluti. Integrando queste intuizioni, introduciamo un nuovo framework, denominato WHAC, per facilitare la stima della posa e della forma umana espressiva (EHPS) ancorata al mondo insieme alla stima della posa della fotocamera, senza fare affidamento su tecniche di ottimizzazione tradizionali. Inoltre, presentiamo un nuovo dataset sintetico, WHAC-A-Mole, che include annotazioni precise di esseri umani e fotocamere, e presenta una varietà di movimenti umani interattivi nonché traiettorie realistiche della fotocamera. Esperimenti estesi su benchmark standard e di nuova istituzione evidenziano la superiorità e l'efficacia del nostro framework. Renderemo disponibili pubblicamente il codice e il dataset.
English
Estimating human and camera trajectories with accurate scale in the world coordinate system from a monocular video is a highly desirable yet challenging and ill-posed problem. In this study, we aim to recover expressive parametric human models (i.e., SMPL-X) and corresponding camera poses jointly, by leveraging the synergy between three critical players: the world, the human, and the camera. Our approach is founded on two key observations. Firstly, camera-frame SMPL-X estimation methods readily recover absolute human depth. Secondly, human motions inherently provide absolute spatial cues. By integrating these insights, we introduce a novel framework, referred to as WHAC, to facilitate world-grounded expressive human pose and shape estimation (EHPS) alongside camera pose estimation, without relying on traditional optimization techniques. Additionally, we present a new synthetic dataset, WHAC-A-Mole, which includes accurately annotated humans and cameras, and features diverse interactive human motions as well as realistic camera trajectories. Extensive experiments on both standard and newly established benchmarks highlight the superiority and efficacy of our framework. We will make the code and dataset publicly available.

Summary

AI-Generated Summary

PDF32February 24, 2025