ChatPaper.aiChatPaper

Gated QKAN-FWP: Масштабируемое квантово-инспирированное обучение последовательностям

Gated QKAN-FWP: Scalable Quantum-inspired Sequence Learning

May 7, 2026
Авторы: Kuo-Chung Peng, Samuel Yen-Chi Chen, Jiun-Cheng Jiang, Chen-Yu Liu, En-Jui Kuo, Yun-Yuan Wang, Prayag Tiwari, Andrea Ceschini, Chi-Sheng Chen, Yu-Chao Hsu, Chun-Hua Lin, Tai-Yue Li, Antonello Rosato, Massimo Panella, Simon See, Saif Al-Kuwari, Kuan-Cheng Chen, Nan-Yow Chen, Hsi-Sheng Goan
cs.AI

Аннотация

Программисты быстрых весов (FWP) кодируют временные зависимости через динамически обновляемые параметры, а не рекуррентные скрытые состояния. Квантовые FWP (QFWP) расширяют эту идею с помощью вариационных квантовых схем (VQC), но существующие реализации основаны на многокубитных архитектурах, которые трудно масштабировать на зашумленных квантовых устройствах промежуточного масштаба (NISQ) и дорого моделировать классически. Мы предлагаем gated QKAN-FWP — структуру быстрых весов, интегрирующую FWP с квантово-вдохновленной сетью Колмогорова–Арнольда (QKAN) с использованием схем повторной загрузки данных на одном кубите в качестве обучаемой нелинейной активации, известной как активация с повторной загрузкой данных (DARUAN). Мы также вводим скалярно-управляемое правило обновления быстрых весов, стабилизирующее эволюцию параметров, что подкреплено теоретическим анализом его адаптивного ядра памяти, геометрической ограниченности и параллелизуемых градиентных путей. Мы оцениваем предложенную структуру на эталонных задачах временных рядов, обучении с подкреплением в среде MiniGrid и выделяем прогнозирование реальных солнечных циклов как наш основной практический результат. В долгосрочном сценарии с входным окном в 528 месяцев и горизонтом прогноза в 132 месяца наша модель с 12,5 тыс. параметров достигает более низкого нормированного среднеквадратичного отклонения (MSE), ошибки по амплитуде пика и ошибки по времени пика по сравнению с набором классических рекуррентных базовых моделей, имеющих до 13 раз больше параметров, включая сети долгой краткосрочной памяти (LSTM) (25,9–89,1 тыс. параметров), WaveNet-LSTM (167 тыс.), простые рекуррентные нейронные сети (11,5 тыс.) и модифицированную эхо-сеть состояния (132 тыс.). Для проверки совместимости с NISQ мы дополнительно развертываем обученный быстрый программист на процессорах IonQ и IBM Quantum, восстанавливая точность прогноза в пределах 0,1% относительной MSE от бесшумного симулятора при 1024 выстрелах. Эти результаты позиционируют gated QKAN-FWP как масштабируемый, параметрически эффективный и совместимый с NISQ подход к квантово-вдохновленному моделированию последовательностей.
English
Fast Weight Programmers (FWPs) encode temporal dependencies through dynamically updated parameters rather than recurrent hidden states. Quantum FWPs (QFWPs) extend this idea with variational quantum circuits (VQCs), but existing implementations rely on multi-qubit architectures that are difficult to scale on noisy intermediate-scale quantum (NISQ) devices and expensive to simulate classically. We propose gated QKAN-FWP, a fast-weight framework that integrates FWP with Quantum-inspired Kolmogorov-Arnold Network (QKAN) using single-qubit data re-uploading circuits as learnable nonlinear activation, known as DatA Re-Uploading ActivatioN (DARUAN). We further introduce a scalar-gated fast-weight update rule that stabilizes parameter evolution, supported by a theoretical analysis of its adaptive memory kernel, geometric boundedness, and parallelizable gradient paths. We evaluate the framework across time-series benchmarks, MiniGrid reinforcement learning, and highlight real-world solar cycle forecasting as our main practical result. In the long-horizon setting with 528-month input window and 132-month forecast horizon, our 12.5k-parameter model achieves lower scaled Mean Square Error (MSE), peak amplitude error, and peak timing error than a suite of classical recurrent baselines with up to 13x more parameters, including Long Short-Term Memory (LSTM) networks (25.9k-89.1k parameters), WaveNet-LSTM (167k), Vanilla recurrent neural network (11.5k), and a Modified Echo State Network (132k). To validate NISQ compatibility, we further deploy the trained fast programmer on IonQ and IBM Quantum processors, recovering forecasting accuracy within 0.1% relative MSE of the noiseless simulator at 1024 shots. These results position gated QKAN-FWP as a scalable, parameter-efficient, and NISQ-compatible approach to quantum-inspired sequence modeling.
PDF21May 12, 2026