Attivazione apprendibile a singolo strato per la rappresentazione neurale implicita (SL^{2}A-INR)
Single-Layer Learnable Activation for Implicit Neural Representation (SL^{2}A-INR)
September 17, 2024
Autori: Moein Heidari, Reza Rezaeian, Reza Azad, Dorit Merhof, Hamid Soltanian-Zadeh, Ilker Hacihaliloglu
cs.AI
Abstract
La Rappresentazione Neurale Implicita (INR), sfruttando una rete neurale per trasformare l'input delle coordinate in attributi corrispondenti, ha recentemente guidato significativi progressi in diversi domini legati alla visione. Tuttavia, le prestazioni dell'INR sono fortemente influenzate dalla scelta della funzione di attivazione non lineare utilizzata nella sua architettura multistrato del perceptron (MLP). Sono state esaminate varie non linearità; tuttavia, gli attuali INR presentano limitazioni nel catturare componenti ad alta frequenza, tipi di segnale diversi e nel gestire problemi inversi. Abbiamo identificato che questi problemi possono essere notevolmente alleviati introducendo un cambio di paradigma negli INR. Abbiamo scoperto che un'architettura con attivazioni apprendibili nei livelli iniziali può rappresentare dettagli fini nei segnali sottostanti. In particolare, proponiamo SL^{2}A-INR, una rete ibrida per INR con una funzione di attivazione apprendibile a singolo strato, che favorisce l'efficacia dei tradizionali MLP basati su ReLU. Il nostro metodo si comporta in modo superiore in diverse attività, inclusa la rappresentazione delle immagini, le ricostruzioni di forme 3D, l'inpainting, la super-risoluzione di immagini singole, la ricostruzione CT e la sintesi di nuove visualizzazioni. Attraverso esperimenti esaustivi, SL^{2}A-INR stabilisce nuovi benchmark in termini di accuratezza, qualità e velocità di convergenza per l'INR.
English
Implicit Neural Representation (INR), leveraging a neural network to
transform coordinate input into corresponding attributes, has recently driven
significant advances in several vision-related domains. However, the
performance of INR is heavily influenced by the choice of the nonlinear
activation function used in its multilayer perceptron (MLP) architecture.
Multiple nonlinearities have been investigated; yet, current INRs face
limitations in capturing high-frequency components, diverse signal types, and
handling inverse problems. We have identified that these problems can be
greatly alleviated by introducing a paradigm shift in INRs. We find that an
architecture with learnable activations in initial layers can represent fine
details in the underlying signals. Specifically, we propose SL^{2}A-INR, a
hybrid network for INR with a single-layer learnable activation function,
prompting the effectiveness of traditional ReLU-based MLPs. Our method performs
superior across diverse tasks, including image representation, 3D shape
reconstructions, inpainting, single image super-resolution, CT reconstruction,
and novel view synthesis. Through comprehensive experiments, SL^{2}A-INR sets
new benchmarks in accuracy, quality, and convergence rates for INR.Summary
AI-Generated Summary