Enkelvoudige Leerbaar Activering voor Impliciete Neurale Representatie (SL^{2}A-INR)
Single-Layer Learnable Activation for Implicit Neural Representation (SL^{2}A-INR)
September 17, 2024
Auteurs: Moein Heidari, Reza Rezaeian, Reza Azad, Dorit Merhof, Hamid Soltanian-Zadeh, Ilker Hacihaliloglu
cs.AI
Samenvatting
Een Impliciete Neurale Representatie (INR), waarbij een neuraal netwerk wordt ingezet om coördinaatinput om te zetten in overeenkomstige attributen, heeft recentelijk significante vooruitgang geboekt in diverse op visie gerelateerde domeinen. De prestaties van INR worden echter sterk beïnvloed door de keuze van de niet-lineaire activatiefunctie die wordt gebruikt in de meerlaagse perceptron (MLP) architectuur. Verschillende niet-lineariteiten zijn onderzocht; toch ondervinden huidige INRs beperkingen bij het vastleggen van hoogfrequente componenten, diverse signaaltypes en het oplossen van inverse problemen. We hebben vastgesteld dat deze problemen aanzienlijk kunnen worden verlicht door een paradigma verschuiving in INRs te introduceren. We hebben ontdekt dat een architectuur met leerzame activaties in de initiële lagen fijne details in de onderliggende signalen kan representeren. Specifiek stellen we SL^{2}A-INR voor, een hybride netwerk voor INR met een enkelvoudige laag leerzame activatiefunctie, wat de effectiviteit van traditionele op ReLU gebaseerde MLPs bevordert. Onze methode presteert superieur bij diverse taken, waaronder beeldrepresentatie, 3D-vormreconstructies, inpainting, superresolutie van enkelvoudige beelden, CT-reconstructie en synthese van nieuwe gezichtspunten. Door uitgebreide experimenten stelt SL^{2}A-INR nieuwe maatstaven voor nauwkeurigheid, kwaliteit en convergentiesnelheden voor INR.
English
Implicit Neural Representation (INR), leveraging a neural network to
transform coordinate input into corresponding attributes, has recently driven
significant advances in several vision-related domains. However, the
performance of INR is heavily influenced by the choice of the nonlinear
activation function used in its multilayer perceptron (MLP) architecture.
Multiple nonlinearities have been investigated; yet, current INRs face
limitations in capturing high-frequency components, diverse signal types, and
handling inverse problems. We have identified that these problems can be
greatly alleviated by introducing a paradigm shift in INRs. We find that an
architecture with learnable activations in initial layers can represent fine
details in the underlying signals. Specifically, we propose SL^{2}A-INR, a
hybrid network for INR with a single-layer learnable activation function,
prompting the effectiveness of traditional ReLU-based MLPs. Our method performs
superior across diverse tasks, including image representation, 3D shape
reconstructions, inpainting, single image super-resolution, CT reconstruction,
and novel view synthesis. Through comprehensive experiments, SL^{2}A-INR sets
new benchmarks in accuracy, quality, and convergence rates for INR.Summary
AI-Generated Summary