QKAN-LSTM: Квантово-вдохновленная сеть долгой краткосрочной памяти Колмогорова-Арнольда
QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory
December 4, 2025
Авторы: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI
Аннотация
Модели долгой краткосрочной памяти (LSTM) представляют собой особый тип рекуррентных нейронных сетей (RNN), которые играют ключевую роль в задачах последовательного моделирования в таких областях, как прогнозирование городских телекоммуникаций, где доминируют временные корреляции и нелинейные зависимости. Однако традиционные LSTM страдают от высокой избыточности параметров и ограниченной нелинейной выразительной способности. В данной работе мы предлагаем Квантово-вдохновленную сеть КАЛМ (QKAN-LSTM), которая интегрирует модули повторной загрузки данных с активацией (DARUAN) в структуру вентилей LSTM. Каждый модуль DARUAN действует как квантовая вариационная функция активации (QVAF), повышая частотную адаптивность и обеспечивая экспоненциально обогащенное спектральное представление без многокубитной запутанности. Получающаяся архитектура сохраняет выразительность квантового уровня, оставаясь при этом полностью исполняемой на классическом оборудовании. Эмпирические оценки на трех наборах данных — затухающее простое гармоническое движение, функция Бесселя и городские телекоммуникации — демонстрируют, что QKAN-LSTM достигает превосходной прогнозной точности и обобщающей способности при сокращении обучаемых параметров на 79% по сравнению с классическими LSTM. Мы расширяем framework до сети Цзян-Хуан-Чэнь-Гоан (JHCG Net), которая обобщает KAN на структуры типа «кодировщик-декодировщик», а затем дополнительно используем QKAN для реализации латентного KAN, создавая таким образом гибридный QKAN (HQKAN) для иерархического обучения представлениям. Предложенная HQKAN-LSTM, таким образом, обеспечивает масштабируемый и интерпретируемый путь к квантово-вдохновленному последовательному моделированию в реальных средах данных.
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.