ChatPaper.aiChatPaper

PhysAvatar: Het leren van de fysica van geklede 3D-avatars uit visuele waarnemingen

PhysAvatar: Learning the Physics of Dressed 3D Avatars from Visual Observations

April 5, 2024
Auteurs: Yang Zheng, Qingqing Zhao, Guandao Yang, Wang Yifan, Donglai Xiang, Florian Dubost, Dmitry Lagun, Thabo Beeler, Federico Tombari, Leonidas Guibas, Gordon Wetzstein
cs.AI

Samenvatting

Het modelleren en renderen van fotorealistische avatars is van cruciaal belang in veel toepassingen. Bestaande methoden die een 3D-avatar bouwen op basis van visuele waarnemingen, hebben echter moeite met het reconstrueren van geklede mensen. Wij introduceren PhysAvatar, een nieuw framework dat inverse rendering combineert met inverse fysica om automatisch de vorm en het uiterlijk van een mens te schatten op basis van multi-view videogegevens, samen met de fysieke parameters van het materiaal van hun kleding. Hiervoor gebruiken we een mesh-uitgelijnde 4D Gaussische techniek voor spatio-temporele mesh-tracking, evenals een fysiek gebaseerde inverse renderer om de intrinsieke materiaaleigenschappen te schatten. PhysAvatar integreert een fysica-simulator om de fysieke parameters van de kleding te schatten met behulp van gradient-gebaseerde optimalisatie op een principiële manier. Deze nieuwe mogelijkheden stellen PhysAvatar in staat om hoogwaardige nieuwe-weergave renderings te maken van avatars die loszittende kleding dragen, onder bewegingen en lichtomstandigheden die niet in de trainingsdata zijn gezien. Dit markeert een significante vooruitgang in het modelleren van fotorealistische digitale mensen met behulp van fysiek gebaseerde inverse rendering met fysica in de lus. Onze projectwebsite is te vinden op: https://qingqing-zhao.github.io/PhysAvatar
English
Modeling and rendering photorealistic avatars is of crucial importance in many applications. Existing methods that build a 3D avatar from visual observations, however, struggle to reconstruct clothed humans. We introduce PhysAvatar, a novel framework that combines inverse rendering with inverse physics to automatically estimate the shape and appearance of a human from multi-view video data along with the physical parameters of the fabric of their clothes. For this purpose, we adopt a mesh-aligned 4D Gaussian technique for spatio-temporal mesh tracking as well as a physically based inverse renderer to estimate the intrinsic material properties. PhysAvatar integrates a physics simulator to estimate the physical parameters of the garments using gradient-based optimization in a principled manner. These novel capabilities enable PhysAvatar to create high-quality novel-view renderings of avatars dressed in loose-fitting clothes under motions and lighting conditions not seen in the training data. This marks a significant advancement towards modeling photorealistic digital humans using physically based inverse rendering with physics in the loop. Our project website is at: https://qingqing-zhao.github.io/PhysAvatar
PDF180December 15, 2024