ChatPaper.aiChatPaper

ゲーテッドQKAN-FWP: スケーラブルな量子インスパイアード系列学習

Gated QKAN-FWP: Scalable Quantum-inspired Sequence Learning

May 7, 2026
著者: Kuo-Chung Peng, Samuel Yen-Chi Chen, Jiun-Cheng Jiang, Chen-Yu Liu, En-Jui Kuo, Yun-Yuan Wang, Prayag Tiwari, Andrea Ceschini, Chi-Sheng Chen, Yu-Chao Hsu, Chun-Hua Lin, Tai-Yue Li, Antonello Rosato, Massimo Panella, Simon See, Saif Al-Kuwari, Kuan-Cheng Chen, Nan-Yow Chen, Hsi-Sheng Goan
cs.AI

要旨

高速重みプログラマ(FWP)は、再帰的な隠れ状態ではなく、動的に更新されるパラメータによって時間的依存関係を符号化する。量子FWP(QFWP)はこの考えを変分量子回路(VQC)で拡張するが、既存の実装はマルチキュービットアーキテクチャに依存しており、ノイズのある中期規模量子(NISQ)デバイスでのスケーリングが困難であり、古典的シミュレーションにもコストがかかる。本稿では、高速重みフレームワークであるゲート付きQKAN-FWPを提案する。これはFWPと量子に着想を得たKolmogorov-Arnoldネットワーク(QKAN)を統合し、学習可能な非線形活性化として単一キュービットのデータ再アップロード回路(DARUAN)を利用する。さらに、適応型メモリカーネル、幾何的有界性、並列化可能な勾配経路に関する理論的解析に支えられた、スカラゲート型高速重み更新規則を導入する。本フレームワークを時系列ベンチマーク、MiniGrid強化学習で評価し、主要な実用的成果として実世界の太陽周期予測に焦点を当てる。528ヶ月の入力ウィンドウと132ヶ月の予測地平線を持つ長期設定において、我々の12.5kパラメータモデルは、最大13倍のパラメータを持つ古典的な再帰ベースラインモデル群(Long Short-Term Memory(LSTM)ネットワーク(25.9k~89.1kパラメータ)、WaveNet-LSTM(167k)、バニラ再帰型ニューラルネットワーク(11.5k)、修正エコーステートネットワーク(132k)を含む)と比較して、より低いスケーリング平均二乗誤差(MSE)、ピーク振幅誤差、ピークタイミング誤差を達成する。さらにNISQ互換性を検証するため、訓練済み高速プログラマをIonQおよびIBM量子プロセッサにデプロイし、1024ショットにおいて無ノイズシミュレータとの相対MSE0.1%以内の予測精度を回復した。これらの結果は、ゲート付きQKAN-FWPを、スケーラブルでパラメータ効率が高く、NISQ互換な量子インスパイアード系列モデリング手法として位置づける。
English
Fast Weight Programmers (FWPs) encode temporal dependencies through dynamically updated parameters rather than recurrent hidden states. Quantum FWPs (QFWPs) extend this idea with variational quantum circuits (VQCs), but existing implementations rely on multi-qubit architectures that are difficult to scale on noisy intermediate-scale quantum (NISQ) devices and expensive to simulate classically. We propose gated QKAN-FWP, a fast-weight framework that integrates FWP with Quantum-inspired Kolmogorov-Arnold Network (QKAN) using single-qubit data re-uploading circuits as learnable nonlinear activation, known as DatA Re-Uploading ActivatioN (DARUAN). We further introduce a scalar-gated fast-weight update rule that stabilizes parameter evolution, supported by a theoretical analysis of its adaptive memory kernel, geometric boundedness, and parallelizable gradient paths. We evaluate the framework across time-series benchmarks, MiniGrid reinforcement learning, and highlight real-world solar cycle forecasting as our main practical result. In the long-horizon setting with 528-month input window and 132-month forecast horizon, our 12.5k-parameter model achieves lower scaled Mean Square Error (MSE), peak amplitude error, and peak timing error than a suite of classical recurrent baselines with up to 13x more parameters, including Long Short-Term Memory (LSTM) networks (25.9k-89.1k parameters), WaveNet-LSTM (167k), Vanilla recurrent neural network (11.5k), and a Modified Echo State Network (132k). To validate NISQ compatibility, we further deploy the trained fast programmer on IonQ and IBM Quantum processors, recovering forecasting accuracy within 0.1% relative MSE of the noiseless simulator at 1024 shots. These results position gated QKAN-FWP as a scalable, parameter-efficient, and NISQ-compatible approach to quantum-inspired sequence modeling.
PDF21May 12, 2026