ChatPaper.aiChatPaper

QKAN-LSTM: Memória de Longo e Curto Prazo de Kolmogorov-Arnold Inspirada na Mecânica Quântica

QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory

December 4, 2025
Autores: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI

Resumo

Os modelos de memória de longo e curto prazo (LSTM) são um tipo específico de redes neurais recorrentes (RNNs) centrais para tarefas de modelagem sequencial em domínios como a previsão de telecomunicações urbanas, onde correlações temporais e dependências não lineares são dominantes. No entanto, os LSTMs convencionais sofrem com alta redundância de parâmetros e expressividade não linear limitada. Neste trabalho, propomos a Memória de Longo e Curto Prazo de Kolmogorov-Arnold Inspirada na Quântica (QKAN-LSTM), que integra módulos de Ativação por Recarregamento de Dados (DARUAN) na estrutura de portas dos LSTMs. Cada DARUAN atua como uma função de ativação variacional quântica (QVAF), aumentando a adaptabilidade de frequência e permitindo uma representação espectral exponencialmente enriquecida sem emaranhamento de múltiplos qubits. A arquitetura resultante preserva a expressividade em nível quântico, mantendo-se totalmente executável em hardware clássico. Avaliações empíricas em três conjuntos de dados – Movimento Harmônico Simples Amortecido, Função de Bessel e Telecomunicações Urbanas – demonstram que a QKAN-LSTM alcança precisão preditiva e generalização superiores com uma redução de 79% nos parâmetros treináveis em comparação com LSTMs clássicos. Estendemos a estrutura para a Rede de Jiang-Huang-Chen-Goan (JHCG Net), que generaliza o KAN para estruturas codificador-decodificador, e depois usamos ainda mais o QKAN para realizar o KAN latente, criando assim um QKAN Híbrido (HQKAN) para aprendizado de representação hierárquica. A HQKAN-LSTM proposta oferece, portanto, um caminho escalável e interpretável para a modelagem sequencial inspirada na quântica em ambientes de dados do mundo real.
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.
PDF22April 2, 2026