ChatPaper.aiChatPaper

QKAN-LSTM: 量子启发型コルモゴロフ-アーノルド長短期記憶

QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory

December 4, 2025
著者: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI

要旨

長短期記憶(LSTM)モデルは、都市通信量予測などの分野における時系列モデリングタスクの中核をなすリカレントニューラルネットワーク(RNN)の一種である。このような分野では、時間的相関と非線形依存性が支配的である。しかし、従来のLSTMは、パラメータの冗長性が高く、非線形表現力が限られているという課題を抱えている。本研究では、量子にヒントを得たコルモゴロフ-アーノルド長短期記憶(QKAN-LSTM)を提案する。これは、データ再アップロード活性化(DARUAN)モジュールをLSTMのゲート構造に統合したものである。各DARUANは量子変分活性化関数(QVAF)として機能し、周波数適応性を高め、多量子ビットもつれを伴わずに指数関数的に豊かなスペクトル表現を可能にする。結果として得られるアーキテクチャは、量子レベルの表現力を保持しつつ、古典的なハードウェア上で完全に実行可能である。減衰調和振動、ベッセル関数、都市通信量の3つのデータセットを用いた実証評価により、QKAN-LSTMが、従来のLSTMと比較して学習可能パラメータを79%削減しつつ、優れた予測精度と汎化性能を達成することを示す。さらに、本フレームワークを江-黄-陳-郷ネットワーク(JHCG Net)に拡張する。これはKANをエンコーダ-デコーダ構造に一般化したものであり、さらにQKANを用いて潜在KANを実現することで、階層的表現学習のためのハイブリッドQKAN(HQKAN)を構築する。こうして提案されたHQKAN-LSTMは、実世界のデータ環境における量子発想の時系列モデリングへのスケーラブルで解釈可能な道筋を提供する。
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.
PDF11December 6, 2025