ChatPaper.aiChatPaper

Fahrbare 3D-Gaußsche Avatare

Drivable 3D Gaussian Avatars

November 14, 2023
Autoren: Wojciech Zielonka, Timur Bagautdinov, Shunsuke Saito, Michael Zollhöfer, Justus Thies, Javier Romero
cs.AI

Zusammenfassung

Wir präsentieren Drivable 3D Gaussian Avatars (D3GA), das erste 3D-steuerbare Modell für menschliche Körper, das mit Gaussian Splats gerendert wird. Aktuelle fotorealistische, steuerbare Avatare erfordern entweder präzise 3D-Registrierungen während des Trainings, dichte Eingabebilder während des Tests oder beides. Diejenigen, die auf neuralen Strahlungsfeldern basieren, sind zudem oft unverhältnismäßig langsam für Telepräsenzanwendungen. Diese Arbeit nutzt die kürzlich vorgestellte 3D Gaussian Splatting (3DGS)-Technik, um realistische Menschen in Echtzeit-Frameraten zu rendern, wobei dichte kalibrierte Multi-View-Videos als Eingabe verwendet werden. Um diese Primitiven zu verformen, weichen wir von der häufig verwendeten Punktverformungsmethode des Linear Blend Skinning (LBS) ab und verwenden eine klassische volumetrische Verformungsmethode: Cage-Verformungen. Aufgrund ihrer geringeren Größe steuern wir diese Verformungen mit Gelenkwinkeln und Keypoints, die besser für Kommunikationsanwendungen geeignet sind. Unsere Experimente mit neun Probanden mit unterschiedlichen Körperformen, Kleidungen und Bewegungen erzielen qualitativ hochwertigere Ergebnisse als state-of-the-art-Methoden bei Verwendung der gleichen Trainings- und Testdaten.
English
We present Drivable 3D Gaussian Avatars (D3GA), the first 3D controllable model for human bodies rendered with Gaussian splats. Current photorealistic drivable avatars require either accurate 3D registrations during training, dense input images during testing, or both. The ones based on neural radiance fields also tend to be prohibitively slow for telepresence applications. This work uses the recently presented 3D Gaussian Splatting (3DGS) technique to render realistic humans at real-time framerates, using dense calibrated multi-view videos as input. To deform those primitives, we depart from the commonly used point deformation method of linear blend skinning (LBS) and use a classic volumetric deformation method: cage deformations. Given their smaller size, we drive these deformations with joint angles and keypoints, which are more suitable for communication applications. Our experiments on nine subjects with varied body shapes, clothes, and motions obtain higher-quality results than state-of-the-art methods when using the same training and test data.
PDF473December 15, 2024