ChatPaper.aiChatPaper

Enkelvoudige Leerbaar Activering voor Impliciete Neurale Representatie (SL^{2}A-INR)

Single-Layer Learnable Activation for Implicit Neural Representation (SL^{2}A-INR)

September 17, 2024
Auteurs: Moein Heidari, Reza Rezaeian, Reza Azad, Dorit Merhof, Hamid Soltanian-Zadeh, Ilker Hacihaliloglu
cs.AI

Samenvatting

Een Impliciete Neurale Representatie (INR), waarbij een neuraal netwerk wordt ingezet om coördinaatinput om te zetten in overeenkomstige attributen, heeft recentelijk significante vooruitgang geboekt in diverse op visie gerelateerde domeinen. De prestaties van INR worden echter sterk beïnvloed door de keuze van de niet-lineaire activatiefunctie die wordt gebruikt in de meerlaagse perceptron (MLP) architectuur. Verschillende niet-lineariteiten zijn onderzocht; toch ondervinden huidige INRs beperkingen bij het vastleggen van hoogfrequente componenten, diverse signaaltypes en het oplossen van inverse problemen. We hebben vastgesteld dat deze problemen aanzienlijk kunnen worden verlicht door een paradigma verschuiving in INRs te introduceren. We hebben ontdekt dat een architectuur met leerzame activaties in de initiële lagen fijne details in de onderliggende signalen kan representeren. Specifiek stellen we SL^{2}A-INR voor, een hybride netwerk voor INR met een enkelvoudige laag leerzame activatiefunctie, wat de effectiviteit van traditionele op ReLU gebaseerde MLPs bevordert. Onze methode presteert superieur bij diverse taken, waaronder beeldrepresentatie, 3D-vormreconstructies, inpainting, superresolutie van enkelvoudige beelden, CT-reconstructie en synthese van nieuwe gezichtspunten. Door uitgebreide experimenten stelt SL^{2}A-INR nieuwe maatstaven voor nauwkeurigheid, kwaliteit en convergentiesnelheden voor INR.
English
Implicit Neural Representation (INR), leveraging a neural network to transform coordinate input into corresponding attributes, has recently driven significant advances in several vision-related domains. However, the performance of INR is heavily influenced by the choice of the nonlinear activation function used in its multilayer perceptron (MLP) architecture. Multiple nonlinearities have been investigated; yet, current INRs face limitations in capturing high-frequency components, diverse signal types, and handling inverse problems. We have identified that these problems can be greatly alleviated by introducing a paradigm shift in INRs. We find that an architecture with learnable activations in initial layers can represent fine details in the underlying signals. Specifically, we propose SL^{2}A-INR, a hybrid network for INR with a single-layer learnable activation function, prompting the effectiveness of traditional ReLU-based MLPs. Our method performs superior across diverse tasks, including image representation, 3D shape reconstructions, inpainting, single image super-resolution, CT reconstruction, and novel view synthesis. Through comprehensive experiments, SL^{2}A-INR sets new benchmarks in accuracy, quality, and convergence rates for INR.

Summary

AI-Generated Summary

PDF52November 16, 2024