ChatPaper.aiChatPaper

Activación Aprendible de una Capa para Representación Neural Implícita (SL^{2}A-INR)

Single-Layer Learnable Activation for Implicit Neural Representation (SL^{2}A-INR)

September 17, 2024
Autores: Moein Heidari, Reza Rezaeian, Reza Azad, Dorit Merhof, Hamid Soltanian-Zadeh, Ilker Hacihaliloglu
cs.AI

Resumen

La Representación Neuronal Implícita (INR, por sus siglas en inglés), que aprovecha una red neuronal para transformar la entrada de coordenadas en atributos correspondientes, ha impulsado recientemente avances significativos en varios dominios relacionados con la visión. Sin embargo, el rendimiento de INR está fuertemente influenciado por la elección de la función de activación no lineal utilizada en su arquitectura de perceptrón multicapa (MLP, por sus siglas en inglés). Se han investigado múltiples no linealidades; sin embargo, los INR actuales enfrentan limitaciones en la captura de componentes de alta frecuencia, diversos tipos de señales y en el manejo de problemas inversos. Hemos identificado que estos problemas pueden ser ampliamente aliviados mediante la introducción de un cambio de paradigma en los INR. Descubrimos que una arquitectura con activaciones aprendibles en las capas iniciales puede representar detalles finos en las señales subyacentes. Específicamente, proponemos SL^{2}A-INR, una red híbrida para INR con una función de activación aprendible de una sola capa, que promueve la efectividad de los MLP basados en ReLU tradicionales. Nuestro método tiene un rendimiento superior en diversas tareas, incluyendo representación de imágenes, reconstrucciones de formas 3D, inpainting, super-resolución de imágenes individuales, reconstrucción de TC y síntesis de vistas novedosas. A través de experimentos exhaustivos, SL^{2}A-INR establece nuevos referentes en precisión, calidad y tasas de convergencia para INR.
English
Implicit Neural Representation (INR), leveraging a neural network to transform coordinate input into corresponding attributes, has recently driven significant advances in several vision-related domains. However, the performance of INR is heavily influenced by the choice of the nonlinear activation function used in its multilayer perceptron (MLP) architecture. Multiple nonlinearities have been investigated; yet, current INRs face limitations in capturing high-frequency components, diverse signal types, and handling inverse problems. We have identified that these problems can be greatly alleviated by introducing a paradigm shift in INRs. We find that an architecture with learnable activations in initial layers can represent fine details in the underlying signals. Specifically, we propose SL^{2}A-INR, a hybrid network for INR with a single-layer learnable activation function, prompting the effectiveness of traditional ReLU-based MLPs. Our method performs superior across diverse tasks, including image representation, 3D shape reconstructions, inpainting, single image super-resolution, CT reconstruction, and novel view synthesis. Through comprehensive experiments, SL^{2}A-INR sets new benchmarks in accuracy, quality, and convergence rates for INR.

Summary

AI-Generated Summary

PDF52November 16, 2024