QKAN-LSTM: Memoria a Breve-Lungo Termine di Kolmogorov-Arnold a Ispirazione Quantistica
QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory
December 4, 2025
Autori: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI
Abstract
I modelli Long Short-Term Memory (LSTM) sono un tipo particolare di rete neurale ricorrente (RNN) centrale per i compiti di modellazione sequenziale in domini come la previsione delle telecomunicazioni urbane, dove dominano le correlazioni temporali e le dipendenze non lineari. Tuttavia, le LSTM convenzionali soffrono di un'elevata ridondanza dei parametri e di una limitata espressività non lineare. In questo lavoro, proponiamo la Long Short-Term Memory ispirata al quantum di Kolmogorov-Arnold (QKAN-LSTM), che integra moduli di Attivazione con Ricaricamento dei Dati (DARUAN) nella struttura di gating delle LSTM. Ogni DARUAN funge da funzione di attivazione variational quantistica (QVAF), migliorando l'adattabilità in frequenza e consentendo una rappresentazione spettrale esponenzialmente arricchita senza entanglement multi-qubit. L'architettura risultante preserva l'espressività a livello quantistico pur rimanendo completamente eseguibile su hardware classico. Valutazioni empiriche su tre dataset - Moto Armonico Semplice Smorzato, Funzione di Bessel e Telecomunicazioni Urbane - dimostrano che QKAN-LSTM raggiunge una precisione predittiva e una generalizzazione superiori con una riduzione del 79% dei parametri addestrabili rispetto alle LSTM classiche. Estendiamo il framework alla Rete di Jiang-Huang-Chen-Goan (JHCG Net), che generalizza KAN alle strutture encoder-decoder, e utilizziamo ulteriormente QKAN per realizzare il KAN latente, creando così un QKAN Ibrido (HQKAN) per l'apprendimento di rappresentazioni gerarchiche. La proposta HQKAN-LSTM fornisce quindi una via scalabile e interpretabile verso la modellazione sequenziale ispirata al quantum in ambienti di dati del mondo reale.
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.