ChatPaper.aiChatPaper

QKAN-FWP à Portes : Apprentissage de Séquences Inspiré par la Quantique et Évolutif

Gated QKAN-FWP: Scalable Quantum-inspired Sequence Learning

May 7, 2026
Auteurs: Kuo-Chung Peng, Samuel Yen-Chi Chen, Jiun-Cheng Jiang, Chen-Yu Liu, En-Jui Kuo, Yun-Yuan Wang, Prayag Tiwari, Andrea Ceschini, Chi-Sheng Chen, Yu-Chao Hsu, Chun-Hua Lin, Tai-Yue Li, Antonello Rosato, Massimo Panella, Simon See, Saif Al-Kuwari, Kuan-Cheng Chen, Nan-Yow Chen, Hsi-Sheng Goan
cs.AI

Résumé

Programmeurs de Poids Rapides (FWPs) encodent les dépendances temporelles via des paramètres mis à jour dynamiquement plutôt que des états cachés récurrents. Les FWPs Quantiques (QFWPs) étendent cette idée avec des circuits quantiques variationnels (VQCs), mais les implémentations existantes reposent sur des architectures multi-qubits difficiles à mettre à l'échelle sur des dispositifs quantiques de taille intermédiaire bruyants (NISQ) et coûteuses à simuler classiquement. Nous proposons gated QKAN-FWP, un cadre de poids rapides intégrant FWP avec un Réseau Kolmogorov-Arnold Quantique (QKAN) utilisant des circuits de re-téléchargement de données à qubit unique comme activation non linéaire apprenable, appelée DatA Re-Uploading ActivatioN (DARUAN). Nous introduisons également une règle de mise à jour des poids rapides à porte scalaire qui stabilise l'évolution des paramètres, soutenue par une analyse théorique de son noyau de mémoire adaptatif, de sa bornitude géométrique et de ses chemins de gradient parallélisables. Nous évaluons le cadre sur des benchmarks de séries temporelles, l'apprentissage par renforcement MiniGrid, et mettons en avant la prévision des cycles solaires réels comme résultat pratique principal. Dans un contexte d'horizon long avec une fenêtre d'entrée de 528 mois et un horizon de prévision de 132 mois, notre modèle à 12,5k paramètres atteint une erreur quadratique moyenne (MSE) normalisée, une erreur d'amplitude maximale et une erreur temporelle maximale inférieures à une suite de modèles récurrents classiques avec jusqu'à 13x plus de paramètres, incluant des réseaux Long Short-Term Memory (LSTM) (25,9k-89,1k paramètres), WaveNet-LSTM (167k), un réseau récurrent standard (11,5k), et un Réseau à État Modifié (132k). Pour valider la compatibilité NISQ, nous déployons également le programmeur rapide entraîné sur des processeurs quantiques IonQ et IBM Quantum, retrouvant une précision de prévision à moins de 0,1% de MSE relatif du simulateur sans bruit pour 1024 tirages. Ces résultats positionnent gated QKAN-FWP comme une approche évolutive, efficace en paramètres et compatible NISQ pour la modélisation de séries inspirée par le quantique.
English
Fast Weight Programmers (FWPs) encode temporal dependencies through dynamically updated parameters rather than recurrent hidden states. Quantum FWPs (QFWPs) extend this idea with variational quantum circuits (VQCs), but existing implementations rely on multi-qubit architectures that are difficult to scale on noisy intermediate-scale quantum (NISQ) devices and expensive to simulate classically. We propose gated QKAN-FWP, a fast-weight framework that integrates FWP with Quantum-inspired Kolmogorov-Arnold Network (QKAN) using single-qubit data re-uploading circuits as learnable nonlinear activation, known as DatA Re-Uploading ActivatioN (DARUAN). We further introduce a scalar-gated fast-weight update rule that stabilizes parameter evolution, supported by a theoretical analysis of its adaptive memory kernel, geometric boundedness, and parallelizable gradient paths. We evaluate the framework across time-series benchmarks, MiniGrid reinforcement learning, and highlight real-world solar cycle forecasting as our main practical result. In the long-horizon setting with 528-month input window and 132-month forecast horizon, our 12.5k-parameter model achieves lower scaled Mean Square Error (MSE), peak amplitude error, and peak timing error than a suite of classical recurrent baselines with up to 13x more parameters, including Long Short-Term Memory (LSTM) networks (25.9k-89.1k parameters), WaveNet-LSTM (167k), Vanilla recurrent neural network (11.5k), and a Modified Echo State Network (132k). To validate NISQ compatibility, we further deploy the trained fast programmer on IonQ and IBM Quantum processors, recovering forecasting accuracy within 0.1% relative MSE of the noiseless simulator at 1024 shots. These results position gated QKAN-FWP as a scalable, parameter-efficient, and NISQ-compatible approach to quantum-inspired sequence modeling.
PDF21May 12, 2026