Compacte Neurale Grafische Primitieven met Geleerde Hash-verkenning
Compact Neural Graphics Primitives with Learned Hash Probing
December 28, 2023
Auteurs: Towaki Takikawa, Thomas Müller, Merlin Nimier-David, Alex Evans, Sanja Fidler, Alec Jacobson, Alexander Keller
cs.AI
Samenvatting
Neurale grafische primitieven zijn sneller en bereiken een hogere kwaliteit wanneer hun neurale netwerken worden versterkt door ruimtelijke datastructuren die trainbare kenmerken bevatten die in een raster zijn gerangschikt. Bestaande kenmerkraster hebben echter ofwel een groot geheugenverbruik (dichte of gefactoriseerde rasters, bomen en hashtabellen) of trage prestaties (indexleren en vectorquantisatie). In dit artikel laten we zien dat een hashtabel met geleerde probes geen van deze nadelen heeft, wat resulteert in een gunstige combinatie van grootte en snelheid. Inferentie is sneller dan hashtabellen zonder probes bij gelijke kwaliteit, terwijl de training slechts 1,2-2,6x langzamer is, wat aanzienlijk beter presteert dan eerdere benaderingen voor indexleren. We komen tot deze formulering door alle kenmerkraster in een gemeenschappelijk kader te plaatsen: ze komen elk overeen met een opzoekfunctie die indexeert in een tabel van kenmerkvectoren. In dit kader kunnen de opzoekfuncties van bestaande datastructuren worden gecombineerd door eenvoudige rekenkundige combinaties van hun indices, wat resulteert in Pareto-optimale compressie en snelheid.
English
Neural graphics primitives are faster and achieve higher quality when their
neural networks are augmented by spatial data structures that hold trainable
features arranged in a grid. However, existing feature grids either come with a
large memory footprint (dense or factorized grids, trees, and hash tables) or
slow performance (index learning and vector quantization). In this paper, we
show that a hash table with learned probes has neither disadvantage, resulting
in a favorable combination of size and speed. Inference is faster than unprobed
hash tables at equal quality while training is only 1.2-2.6x slower,
significantly outperforming prior index learning approaches. We arrive at this
formulation by casting all feature grids into a common framework: they each
correspond to a lookup function that indexes into a table of feature vectors.
In this framework, the lookup functions of existing data structures can be
combined by simple arithmetic combinations of their indices, resulting in
Pareto optimal compression and speed.