ChatPaper.aiChatPaper

Activation d'apprentissage mono-couche pour la représentation neuronale implicite (SL^{2}A-INR)

Single-Layer Learnable Activation for Implicit Neural Representation (SL^{2}A-INR)

September 17, 2024
Auteurs: Moein Heidari, Reza Rezaeian, Reza Azad, Dorit Merhof, Hamid Soltanian-Zadeh, Ilker Hacihaliloglu
cs.AI

Résumé

La Représentation Neuronale Implicite (RNI), exploitant un réseau neuronal pour transformer une entrée de coordonnées en attributs correspondants, a récemment entraîné des avancées significatives dans plusieurs domaines liés à la vision. Cependant, la performance de la RNI est fortement influencée par le choix de la fonction d'activation non linéaire utilisée dans son architecture de perceptron multicouche (MLP). Plusieurs non-linéarités ont été étudiées ; cependant, les RNI actuelles rencontrent des limitations dans la capture des composantes haute fréquence, des types de signaux divers et dans la résolution des problèmes inverses. Nous avons identifié que ces problèmes peuvent être grandement atténués en introduisant un changement de paradigme dans les RNI. Nous constatons qu'une architecture avec des activations apprenables dans les couches initiales peut représenter les détails fins des signaux sous-jacents. Plus précisément, nous proposons SL^{2}A-RNI, un réseau hybride pour la RNI avec une fonction d'activation apprenable à une seule couche, favorisant l'efficacité des MLP traditionnels basés sur ReLU. Notre méthode surpasse dans diverses tâches, notamment la représentation d'images, les reconstructions de formes 3D, l'inpainting, la super-résolution d'images uniques, la reconstruction CT et la synthèse de nouvelles vues. À travers des expériences approfondies, SL^{2}A-RNI établit de nouveaux benchmarks en termes d'exactitude, de qualité et de taux de convergence pour les RNI.
English
Implicit Neural Representation (INR), leveraging a neural network to transform coordinate input into corresponding attributes, has recently driven significant advances in several vision-related domains. However, the performance of INR is heavily influenced by the choice of the nonlinear activation function used in its multilayer perceptron (MLP) architecture. Multiple nonlinearities have been investigated; yet, current INRs face limitations in capturing high-frequency components, diverse signal types, and handling inverse problems. We have identified that these problems can be greatly alleviated by introducing a paradigm shift in INRs. We find that an architecture with learnable activations in initial layers can represent fine details in the underlying signals. Specifically, we propose SL^{2}A-INR, a hybrid network for INR with a single-layer learnable activation function, prompting the effectiveness of traditional ReLU-based MLPs. Our method performs superior across diverse tasks, including image representation, 3D shape reconstructions, inpainting, single image super-resolution, CT reconstruction, and novel view synthesis. Through comprehensive experiments, SL^{2}A-INR sets new benchmarks in accuracy, quality, and convergence rates for INR.

Summary

AI-Generated Summary

PDF52November 16, 2024