ChatPaper.aiChatPaper

QKAN-LSTM: Memoria a Largo y Corto Plazo de Kolmogorov-Arnold Inspirada en la Cuántica

QKAN-LSTM: Quantum-inspired Kolmogorov-Arnold Long Short-term Memory

December 4, 2025
Autores: Yu-Chao Hsu, Jiun-Cheng Jiang, Chun-Hua Lin, Kuo-Chung Peng, Nan-Yow Chen, Samuel Yen-Chi Chen, En-Jui Kuo, Hsi-Sheng Goan
cs.AI

Resumen

Los modelos de memoria a largo plazo (LSTM) son un tipo particular de redes neuronales recurrentes (RNN) fundamentales para tareas de modelado secuencial en dominios como la predicción de telecomunicaciones urbanas, donde predominan las correlaciones temporales y las dependencias no lineales. Sin embargo, los LSTMs convencionales adolecen de alta redundancia de parámetros y capacidad de expresión no lineal limitada. En este trabajo, proponemos la Memoria a Largo Plazo de Kolmogorov-Arnold Inspirada en Cuántica (QKAN-LSTM), que integra módulos de Activación de Recarga de Datos (DARUAN) en la estructura de compuertas de los LSTMs. Cada DARUAN actúa como una función de activación variacional cuántica (QVAF), mejorando la adaptabilidad en frecuencia y permitiendo una representación espectral exponencialmente enriquecida sin entrelazamiento de múltiples qubits. La arquitectura resultante preserva la expresividad a nivel cuántico mientras permanece completamente ejecutable en hardware clásico. Evaluaciones empíricas en tres conjuntos de datos - Movimiento Armónico Simple Amortiguado, Función de Bessel y Telecomunicaciones Urbanas - demuestran que QKAN-LSTM logra una precisión predictiva y una generalización superiores con una reducción del 79% en parámetros entrenables en comparación con los LSTMs clásicos. Extendemos el marco a la Red de Jiang-Huang-Chen-Goan (JHCG Net), que generaliza KAN a estructuras codificador-decodificador, y luego utilizamos QKAN para realizar el KAN latente, creando así un QKAN Híbrido (HQKAN) para el aprendizaje de representaciones jerárquicas. El HQKAN-LSTM propuesto ofrece, por tanto, una vía escalable e interpretable hacia el modelado secuencial inspirado en la cuántica en entornos de datos del mundo real.
English
Long short-term memory (LSTM) models are a particular type of recurrent neural networks (RNNs) that are central to sequential modeling tasks in domains such as urban telecommunication forecasting, where temporal correlations and nonlinear dependencies dominate. However, conventional LSTMs suffer from high parameter redundancy and limited nonlinear expressivity. In this work, we propose the Quantum-inspired Kolmogorov-Arnold Long Short-Term Memory (QKAN-LSTM), which integrates Data Re-Uploading Activation (DARUAN) modules into the gating structure of LSTMs. Each DARUAN acts as a quantum variational activation function (QVAF), enhancing frequency adaptability and enabling an exponentially enriched spectral representation without multi-qubit entanglement. The resulting architecture preserves quantum-level expressivity while remaining fully executable on classical hardware. Empirical evaluations on three datasets, Damped Simple Harmonic Motion, Bessel Function, and Urban Telecommunication, demonstrate that QKAN-LSTM achieves superior predictive accuracy and generalization with a 79% reduction in trainable parameters compared to classical LSTMs. We extend the framework to the Jiang-Huang-Chen-Goan Network (JHCG Net), which generalizes KAN to encoder-decoder structures, and then further use QKAN to realize the latent KAN, thereby creating a Hybrid QKAN (HQKAN) for hierarchical representation learning. The proposed HQKAN-LSTM thus provides a scalable and interpretable pathway toward quantum-inspired sequential modeling in real-world data environments.
PDF11December 6, 2025