ChatPaper.aiChatPaper

### 콴타일 렌더링: 3D 가우시안 스플래팅에 고차원 특징을 효율적으로 임베딩하기

Quantile Rendering: Efficiently Embedding High-dimensional Feature on 3D Gaussian Splatting

December 24, 2025
저자: Yoonwoo Jeong, Cheng Sun, Frank Wang, Minsu Cho, Jaesung Choe
cs.AI

초록

컴퓨터 비전의 최근 발전으로 3D Gaussian Splatting(3D-GS)을 활용하여 Open-vocabulary segmentation(OVS)을 3D 영역으로 성공적으로 확장하였다. 이러한 진전에도 불구하고, 오픈 보커블러리 질의에 필요한 고차원 특징을 효율적으로 렌더링하는 것은 중요한 과제로 남아있다. 기존 방법은 코드북이나 특징 압축을 사용하여 정보 손실을 초래하며, 이로 인해 분할 품질이 저하된다. 이러한 한계를 해결하기 위해, 본 논문에서는 고차원 특징을 효율적으로 처리하면서 높은 정확도를 유지하는 새로운 3D 가우시안 렌더링 전략인 Quantile Rendering(Q-Render)을 제안한다. 각 광선과 교차하는 모든 3D 가우시안을 조밀하게 샘플링하는 기존의 볼륨 렌더링과 달리, Q-Render은 광선을 따라 지배적인 영향을 미치는 가우시안만을 희소하게 샘플링한다. Q-Render을 일반화 가능한 3D 신경망에 통합함으로써, 우리는 가우시안 특징을 일반화 가능한 방식으로 예측하는 Gaussian Splatting Network(GS-Net)도 제안한다. ScanNet과 LeRF에 대한 광범위한 실험을 통해 우리의 프레임워크가 최첨단 방법들을 능가하는 동시에 512차원 특징 맵에서 약 ~43.7배의 속도 향상으로 실시간 렌더링을 가능하게 함을 입증한다. 코드는 공개될 예정이다.
English
Recent advancements in computer vision have successfully extended Open-vocabulary segmentation (OVS) to the 3D domain by leveraging 3D Gaussian Splatting (3D-GS). Despite this progress, efficiently rendering the high-dimensional features required for open-vocabulary queries poses a significant challenge. Existing methods employ codebooks or feature compression, causing information loss, thereby degrading segmentation quality. To address this limitation, we introduce Quantile Rendering (Q-Render), a novel rendering strategy for 3D Gaussians that efficiently handles high-dimensional features while maintaining high fidelity. Unlike conventional volume rendering, which densely samples all 3D Gaussians intersecting each ray, Q-Render sparsely samples only those with dominant influence along the ray. By integrating Q-Render into a generalizable 3D neural network, we also propose Gaussian Splatting Network (GS-Net), which predicts Gaussian features in a generalizable manner. Extensive experiments on ScanNet and LeRF demonstrate that our framework outperforms state-of-the-art methods, while enabling real-time rendering with an approximate ~43.7x speedup on 512-D feature maps. Code will be made publicly available.
PDF51December 31, 2025