ChatPaper.aiChatPaper

학습된 해시 탐색을 통한 컴팩트 신경 그래픽스 프리미티브

Compact Neural Graphics Primitives with Learned Hash Probing

December 28, 2023
저자: Towaki Takikawa, Thomas Müller, Merlin Nimier-David, Alex Evans, Sanja Fidler, Alec Jacobson, Alexander Keller
cs.AI

초록

신경 그래픽스 프리미티브는 그리드 형태로 배열된 학습 가능한 특징을 담는 공간 데이터 구조로 신경망을 보강할 때 더 빠르고 높은 품질을 달성합니다. 그러나 기존의 특징 그리드는 메모리 사용량이 크거나(밀집 또는 인수분해된 그리드, 트리, 해시 테이블) 성능이 느린(인덱스 학습 및 벡터 양자화) 문제가 있습니다. 본 논문에서는 학습된 프로브를 가진 해시 테이블이 이러한 단점 없이 크기와 속도 측면에서 유리한 조합을 이룬다는 것을 보여줍니다. 동일한 품질에서 프로브가 없는 해시 테이블보다 추론이 더 빠르며, 학습 시간은 1.2-2.6배 느리지만 기존의 인덱스 학습 접근법을 크게 능가합니다. 우리는 모든 특징 그리드를 공통 프레임워크로 캐스팅하여 이 공식을 도출했습니다: 각 그리드는 특징 벡터 테이블을 인덱싱하는 조회 함수에 해당합니다. 이 프레임워크에서 기존 데이터 구조의 조회 함수는 인덱스의 간단한 산술 조합으로 결합될 수 있으며, 이를 통해 파레토 최적의 압축과 속도를 달성합니다.
English
Neural graphics primitives are faster and achieve higher quality when their neural networks are augmented by spatial data structures that hold trainable features arranged in a grid. However, existing feature grids either come with a large memory footprint (dense or factorized grids, trees, and hash tables) or slow performance (index learning and vector quantization). In this paper, we show that a hash table with learned probes has neither disadvantage, resulting in a favorable combination of size and speed. Inference is faster than unprobed hash tables at equal quality while training is only 1.2-2.6x slower, significantly outperforming prior index learning approaches. We arrive at this formulation by casting all feature grids into a common framework: they each correspond to a lookup function that indexes into a table of feature vectors. In this framework, the lookup functions of existing data structures can be combined by simple arithmetic combinations of their indices, resulting in Pareto optimal compression and speed.
PDF71December 15, 2024