QKAN-LSTM: Quantum-geïnspireerd Kolmogorov-Arnold Long Short-term Memory
QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory
December 4, 2025
Auteurs: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI
Samenvatting
Long Short-Term Memory (LSTM)-modellen zijn een specifiek type recurrent neural networks (RNN's) die centraal staan bij sequentiële modellerings-taken in domeinen zoals stedelijke telecommunicatievoorspelling, waar temporele correlaties en niet-lineaire afhankelijkheden domineren. Conventionele LSTM's kampen echter met hoge parameterredundantie en beperkte niet-lineaire expressiviteit. In dit werk stellen we het Quantum-geïnspireerde Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM) voor, dat Data Re-Uploading Activation (DARUAN)-modules integreert in de gating-structuur van LSTM's. Elke DARUAN fungeert als een quantum variational activation function (QVAF), die de frequentie-aanpasbaarheid verbetert en een exponentieel verrijkte spectrale representatie mogelijk maakt zonder multi-qubitvervlechting. De resulterende architectuur behoudt quantum-niveau-expressiviteit terwijl deze volledig uitvoerbaar blijft op klassieke hardware. Empirische evaluaties op drie datasets – Gedempte Harmonische Trilling, Bessel-functie en Stedelijke Telecommunicatie – tonen aan dat QKAN-LSTM superieure voorspellende nauwkeurigheid en generalisatie bereikt met een reductie van 79% in trainbare parameters vergeleken met klassieke LSTM's. We breiden het raamwerk uit naar het Jiang-Huang-Chen-Goan Network (JHCG Net), dat KAN generaliseert naar encoder-decoder-structuren, en gebruiken vervolgens QKAN om de latente KAN te realiseren, waardoor een Hybride QKAN (HQKAN) voor hiërarchische representatieleren wordt gecreëerd. Het voorgestelde HQKAN-LSTM biedt zo een schaalbare en interpreteerbare weg naar quantum-geïnspireerde sequentiële modellering in real-world data-omgevingen.
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.