ChatPaper.aiChatPaper

Diffusion de la lumière en profondeur pour le rendu de Gauss en 3D

Subsurface Scattering for 3D Gaussian Splatting

August 22, 2024
Auteurs: Jan-Niklas Dihlmann, Arjun Majumdar, Andreas Engelhardt, Raphael Braun, Hendrik P. A. Lensch
cs.AI

Résumé

La reconstruction 3D et le reéclairage d'objets fabriqués à partir de matériaux diffusants présentent un défi significatif en raison du transport de lumière complexe sous la surface. Le Splatting Gaussien en 3D a introduit une synthèse de nouvelle vue de haute qualité à des vitesses en temps réel. Bien que les Gaussiennes en 3D approximent efficacement la surface d'un objet, elles échouent à capturer les propriétés volumétriques de la diffusion sous-surface. Nous proposons un cadre pour optimiser la forme d'un objet conjointement avec le champ de transfert de radiance étant donné des données OLAT multi-vues (une lumière à la fois). Notre méthode décompose la scène en une surface explicite représentée par des Gaussiennes en 3D, avec un BRDF variant spatialement, et une représentation volumétrique implicite de la composante de diffusion. Un champ lumineux incident appris tient compte de l'ombrage. Nous optimisons tous les paramètres conjointement via un rendu différentiable tracé par rayons. Notre approche permet l'édition de matériaux, le reéclairage et la synthèse de nouvelles vues à des taux interactifs. Nous montrons une application réussie sur des données synthétiques et introduisons un ensemble de données multi-vues multi-lumière nouvellement acquis d'objets dans une configuration de scène lumineuse. Par rapport aux travaux précédents, nous obtenons des résultats comparables ou meilleurs en une fraction du temps d'optimisation et de rendu, tout en permettant un contrôle détaillé sur les attributs des matériaux. Page du projet https://sss.jdihlmann.com/
English
3D reconstruction and relighting of objects made from scattering materials present a significant challenge due to the complex light transport beneath the surface. 3D Gaussian Splatting introduced high-quality novel view synthesis at real-time speeds. While 3D Gaussians efficiently approximate an object's surface, they fail to capture the volumetric properties of subsurface scattering. We propose a framework for optimizing an object's shape together with the radiance transfer field given multi-view OLAT (one light at a time) data. Our method decomposes the scene into an explicit surface represented as 3D Gaussians, with a spatially varying BRDF, and an implicit volumetric representation of the scattering component. A learned incident light field accounts for shadowing. We optimize all parameters jointly via ray-traced differentiable rendering. Our approach enables material editing, relighting and novel view synthesis at interactive rates. We show successful application on synthetic data and introduce a newly acquired multi-view multi-light dataset of objects in a light-stage setup. Compared to previous work we achieve comparable or better results at a fraction of optimization and rendering time while enabling detailed control over material attributes. Project page https://sss.jdihlmann.com/

Summary

AI-Generated Summary

PDF72November 16, 2024