Kwantielweergave: Efficiënte Inbedding van Hoogdimensionale Kenmerken op 3D Gaussische Splatting
Quantile Rendering: Efficiently Embedding High-dimensional Feature on 3D Gaussian Splatting
December 24, 2025
Auteurs: Yoonwoo Jeong, Cheng Sun, Frank Wang, Minsu Cho, Jaesung Choe
cs.AI
Samenvatting
Recente vooruitgang in computervisie heeft open-vocabulary segmentatie (OVS) succesvol uitgebreid naar het 3D-domein door gebruik te maken van 3D Gaussian Splatting (3D-GS). Ondanks deze vooruitgang vormt het efficiënt renderen van de hoogdimensionale kenmerken die nodig zijn voor open-vocabulary zoekopdrachten een aanzienlijke uitdaging. Bestaande methodes gebruiken codeboeken of kenmerkcompressie, wat tot informatieverlies leidt en daardoor de segmentatiekwaliteit aantast. Om deze beperking aan te pakken, introduceren we Quantile Rendering (Q-Render), een nieuwe renderstrategie voor 3D Gaussians die efficiënt omgaat met hoogdimensionale kenmerken en tegelijkertijd een hoge nauwkeurigheid behoudt. In tegenstelling tot conventionele volume rendering, die alle 3D Gaussians die een straal snellen dicht bemonstert, bemonstert Q-Render slechts schaars die met een dominante invloed langs de straal. Door Q-Render te integreren in een generaliseerbaar 3D neuraal netwerk, stellen we ook Gaussian Splatting Network (GS-Net) voor, dat Gaussian-kenmerken op een generaliseerbare manier voorspelt. Uitgebreide experimenten op ScanNet en LeRF tonen aan dat ons framework state-of-the-art methodes overtreft, terwijl het real-time rendering mogelijk maakt met een versnelling van ongeveer ~43,7x op 512-D kenmerkkaarten. De code zal openbaar beschikbaar worden gesteld.
English
Recent advancements in computer vision have successfully extended Open-vocabulary segmentation (OVS) to the 3D domain by leveraging 3D Gaussian Splatting (3D-GS). Despite this progress, efficiently rendering the high-dimensional features required for open-vocabulary queries poses a significant challenge. Existing methods employ codebooks or feature compression, causing information loss, thereby degrading segmentation quality. To address this limitation, we introduce Quantile Rendering (Q-Render), a novel rendering strategy for 3D Gaussians that efficiently handles high-dimensional features while maintaining high fidelity. Unlike conventional volume rendering, which densely samples all 3D Gaussians intersecting each ray, Q-Render sparsely samples only those with dominant influence along the ray. By integrating Q-Render into a generalizable 3D neural network, we also propose Gaussian Splatting Network (GS-Net), which predicts Gaussian features in a generalizable manner. Extensive experiments on ScanNet and LeRF demonstrate that our framework outperforms state-of-the-art methods, while enabling real-time rendering with an approximate ~43.7x speedup on 512-D feature maps. Code will be made publicly available.