QKAN-LSTM: Quanteninspiriertes Kolmogorov-Arnold Long Short-Term Memory
QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory
December 4, 2025
papers.authors: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI
papers.abstract
Long-Short-Term-Memory-Modelle (LSTM) sind eine spezielle Art von rekurrenten neuronalen Netzen (RNNs), die eine zentrale Rolle bei sequenziellen Modellierungsaufgaben in Bereichen wie der urbanen Telekommunikationsvorhersage spielen, wo zeitliche Korrelationen und nichtlineare Abhängigkeiten dominieren. Konventionelle LSTMs leiden jedoch unter hoher Parameterredundanz und begrenzter nichtlinearer Ausdrucksfähigkeit. In dieser Arbeit schlagen wir das Quanteninspirierte Kolmogorov-Arnold-Langzeit-Kurzzeitgedächtnis (QKAN-LSTM) vor, das Data-Re-Uploading-Aktivierungsmodule (DARUAN) in die Gating-Struktur von LSTMs integriert. Jedes DARUAN-Modul fungiert als eine quantenvariationale Aktivierungsfunktion (QVAF), die die Frequenzanpassungsfähigkeit verbessert und eine exponentiell angereicherte Spektraldarstellung ohne Verschränkung mehrerer Qubits ermöglicht. Die resultierende Architektur bewahrt die Ausdrucksstärke auf Quantenniveau, bleibt aber vollständig auf klassischer Hardware ausführbar. Empirische Auswertungen an drei Datensätzen – Gedämpfte Harmonische Schwingung, Bessel-Funktion und Urbane Telekommunikation – zeigen, dass QKAN-LSTM eine überlegene Vorhersagegenauigkeit und Generalisierung erreicht und dabei im Vergleich zu klassischen LSTMs eine Reduzierung der trainierbaren Parameter um 79 % aufweist. Wir erweitern das Framework auf das Jiang-Huang-Chen-Goan-Netzwerk (JHCG Net), das KAN auf Encoder-Decoder-Strukturen verallgemeinert, und verwenden anschließend QKAN, um das latente KAN zu realisieren, wodurch ein Hybrid-QKAN (HQKAN) für hierarchisches Repräsentationslernen geschaffen wird. Das vorgeschlagene HQKAN-LSTM bietet somit einen skalierbaren und interpretierbaren Weg hin zu quanteninspiriertem sequenziellem Modellieren in realen Datenumgebungen.
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.