ChatPaper.aiChatPaper

GS^3: Effizientes Neubeleuchten mit dreifachem Gauss'schem Splatting

GS^3: Efficient Relighting with Triple Gaussian Splatting

October 15, 2024
Autoren: Zoubin Bi, Yixin Zeng, Chong Zeng, Fan Pei, Xiang Feng, Kun Zhou, Hongzhi Wu
cs.AI

Zusammenfassung

Wir präsentieren eine auf räumlichen und winkelbezogenen Gauß-Funktionen basierende Darstellung und einen dreifachen Splatting-Prozess für die Echtzeit-Synthese hochwertiger neuer Beleuchtungs- und Ansichtseffekte aus mehreren Ansichtspunkten beleuchteten Eingangsbildern. Zur Beschreibung komplexer Erscheinungsbilder verwenden wir eine lambertsche Funktion sowie eine Mischung aus winkelbezogenen Gauß-Funktionen als effektive Reflexionsfunktion für jede räumliche Gauß-Funktion. Um Selbstschatten zu erzeugen, splatten wir alle räumlichen Gauß-Funktionen in Richtung der Lichtquelle, um Schattenwerte zu erhalten, die durch ein kleines Multi-Layer-Perzeptron weiter verfeinert werden. Um andere Effekte wie globale Beleuchtung auszugleichen, wird ein weiteres Netzwerk trainiert, um ein pro-räumliche-Gauß-Funktion RGB-Tupel zu berechnen und hinzuzufügen. Die Effektivität unserer Darstellung wird anhand von 30 Beispielen mit einer breiten Variation in Geometrie (von massiv bis flauschig) und Erscheinungsbild (von durchscheinend bis anisotrop) sowie unter Verwendung verschiedener Formen von Eingabedaten demonstriert, einschließlich gerenderter Bilder von synthetischen/rekonstruierten Objekten, Fotos, die mit einer Handkamera und einem Blitz aufgenommen wurden, oder von einem professionellen Lichtbühne. Wir erreichen eine Trainingszeit von 40-70 Minuten und eine Rendergeschwindigkeit von 90 fps auf einer einzelnen handelsüblichen GPU. Unsere Ergebnisse stehen im Vergleich zu modernsten Techniken in Bezug auf Qualität/Leistung gut da. Unser Code und unsere Daten sind öffentlich verfügbar unter https://GSrelight.github.io/.
English
We present a spatial and angular Gaussian based representation and a triple splatting process, for real-time, high-quality novel lighting-and-view synthesis from multi-view point-lit input images. To describe complex appearance, we employ a Lambertian plus a mixture of angular Gaussians as an effective reflectance function for each spatial Gaussian. To generate self-shadow, we splat all spatial Gaussians towards the light source to obtain shadow values, which are further refined by a small multi-layer perceptron. To compensate for other effects like global illumination, another network is trained to compute and add a per-spatial-Gaussian RGB tuple. The effectiveness of our representation is demonstrated on 30 samples with a wide variation in geometry (from solid to fluffy) and appearance (from translucent to anisotropic), as well as using different forms of input data, including rendered images of synthetic/reconstructed objects, photographs captured with a handheld camera and a flash, or from a professional lightstage. We achieve a training time of 40-70 minutes and a rendering speed of 90 fps on a single commodity GPU. Our results compare favorably with state-of-the-art techniques in terms of quality/performance. Our code and data are publicly available at https://GSrelight.github.io/.

Summary

AI-Generated Summary

PDF122November 16, 2024