ChatPaper.aiChatPaper

GPS-Gaussian : Projection pixelisée généralisable par splatting 3D Gaussien pour la synthèse en temps réel de nouvelles vues humaines

GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis

December 4, 2023
Auteurs: Shunyuan Zheng, Boyao Zhou, Ruizhi Shao, Boning Liu, Shengping Zhang, Liqiang Nie, Yebin Liu
cs.AI

Résumé

Nous présentons une nouvelle approche, appelée GPS-Gaussian, pour synthétiser des vues nouvelles d'un personnage en temps réel. La méthode proposée permet un rendu en résolution 2K dans un contexte de caméras à vues éparses. Contrairement aux méthodes originales de Gaussian Splatting ou de rendu implicite neuronal qui nécessitent des optimisations par sujet, nous introduisons des cartes de paramètres gaussiens définies sur les vues sources et régressons directement les propriétés de Gaussian Splatting pour une synthèse instantanée de vues nouvelles sans aucun réglage fin ou optimisation. À cette fin, nous entraînons notre module de régression des paramètres gaussiens sur une grande quantité de données de scans humains, conjointement avec un module d'estimation de profondeur pour projeter les cartes de paramètres 2D dans l'espace 3D. Le cadre proposé est entièrement différentiable et les expériences sur plusieurs ensembles de données démontrent que notre méthode surpasse les méthodes de pointe tout en atteignant une vitesse de rendu exceptionnelle.
English
We present a new approach, termed GPS-Gaussian, for synthesizing novel views of a character in a real-time manner. The proposed method enables 2K-resolution rendering under a sparse-view camera setting. Unlike the original Gaussian Splatting or neural implicit rendering methods that necessitate per-subject optimizations, we introduce Gaussian parameter maps defined on the source views and regress directly Gaussian Splatting properties for instant novel view synthesis without any fine-tuning or optimization. To this end, we train our Gaussian parameter regression module on a large amount of human scan data, jointly with a depth estimation module to lift 2D parameter maps to 3D space. The proposed framework is fully differentiable and experiments on several datasets demonstrate that our method outperforms state-of-the-art methods while achieving an exceeding rendering speed.
PDF151December 15, 2024