ChatPaper.aiChatPaper

GS^3 : Éclairage efficace avec triple étalement gaussien

GS^3: Efficient Relighting with Triple Gaussian Splatting

October 15, 2024
Auteurs: Zoubin Bi, Yixin Zeng, Chong Zeng, Fan Pei, Xiang Feng, Kun Zhou, Hongzhi Wu
cs.AI

Résumé

Nous présentons une représentation basée sur des Gaussiennes spatiales et angulaires ainsi qu'un processus de triple éclatement, pour la synthèse en temps réel et de haute qualité de l'éclairage et de la vue à partir d'images d'entrée multi-vues éclairées par des points. Pour décrire des apparences complexes, nous utilisons une fonction de réflectance efficace pour chaque Gaussienne spatiale, composée d'une partie lambertienne et d'un mélange de Gaussiennes angulaires. Pour générer les auto-ombres, nous éclatons toutes les Gaussiennes spatiales vers la source lumineuse afin d'obtenir des valeurs d'ombre, qui sont ensuite affinées par un petit perceptron multicouche. Pour compenser d'autres effets tels que l'illumination globale, un autre réseau est entraîné pour calculer et ajouter un tuple RVB par Gaussienne spatiale. L'efficacité de notre représentation est démontrée sur 30 échantillons présentant une large variation en termes de géométrie (de solide à moelleux) et d'apparence (de translucide à anisotrope), en utilisant différents types de données d'entrée, y compris des images rendues d'objets synthétiques/reconstruits, des photographies prises avec un appareil photo tenu à la main et un flash, ou provenant d'un lightstage professionnel. Nous atteignons un temps d'entraînement de 40 à 70 minutes et une vitesse de rendu de 90 images par seconde sur un seul GPU grand public. Nos résultats se comparent favorablement aux techniques de pointe en termes de qualité/de performance. Notre code et nos données sont disponibles publiquement sur https://GSrelight.github.io/.
English
We present a spatial and angular Gaussian based representation and a triple splatting process, for real-time, high-quality novel lighting-and-view synthesis from multi-view point-lit input images. To describe complex appearance, we employ a Lambertian plus a mixture of angular Gaussians as an effective reflectance function for each spatial Gaussian. To generate self-shadow, we splat all spatial Gaussians towards the light source to obtain shadow values, which are further refined by a small multi-layer perceptron. To compensate for other effects like global illumination, another network is trained to compute and add a per-spatial-Gaussian RGB tuple. The effectiveness of our representation is demonstrated on 30 samples with a wide variation in geometry (from solid to fluffy) and appearance (from translucent to anisotropic), as well as using different forms of input data, including rendered images of synthetic/reconstructed objects, photographs captured with a handheld camera and a flash, or from a professional lightstage. We achieve a training time of 40-70 minutes and a rendering speed of 90 fps on a single commodity GPU. Our results compare favorably with state-of-the-art techniques in terms of quality/performance. Our code and data are publicly available at https://GSrelight.github.io/.

Summary

AI-Generated Summary

PDF122November 16, 2024