ChatPaper.aiChatPaper

QKAN-FWP con Compuerta: Aprendizaje de Secuencias Inspirado en la Cuántica y Escalable

Gated QKAN-FWP: Scalable Quantum-inspired Sequence Learning

May 7, 2026
Autores: Kuo-Chung Peng, Samuel Yen-Chi Chen, Jiun-Cheng Jiang, Chen-Yu Liu, En-Jui Kuo, Yun-Yuan Wang, Prayag Tiwari, Andrea Ceschini, Chi-Sheng Chen, Yu-Chao Hsu, Chun-Hua Lin, Tai-Yue Li, Antonello Rosato, Massimo Panella, Simon See, Saif Al-Kuwari, Kuan-Cheng Chen, Nan-Yow Chen, Hsi-Sheng Goan
cs.AI

Resumen

Los Programadores de Peso Rápido (FWP, por sus siglas en inglés) codifican dependencias temporales mediante parámetros actualizados dinámicamente en lugar de estados ocultos recurrentes. Los FWP Cuánticos (QFWPs) extienden esta idea con circuitos cuánticos variacionales (VQCs), pero las implementaciones existentes dependen de arquitecturas multiqubit que son difíciles de escalar en dispositivos cuánticos de escala intermedia ruidosa (NISQ) y costosas de simular clásicamente. Proponemos gated QKAN-FWP, un marco de peso rápido que integra FWP con la Red de Kolmogorov-Arnold Cuántico-inspirada (QKAN) utilizando circuitos de recarga de datos de un solo qubit como activación no lineal aprendible, denominada Activación de Recarga de Datos (DARUAN). Además, introducimos una regla de actualización de peso rápido con compuerta escalar que estabiliza la evolución de los parámetros, respaldada por un análisis teórico de su núcleo de memoria adaptativo, acotamiento geométrico y rutas de gradiente paralelizables. Evaluamos el marco en benchmarks de series temporales, aprendizaje por refuerzo en MiniGrid, y destacamos la predicción de ciclos solares en el mundo real como nuestro principal resultado práctico. En el escenario de horizonte largo con una ventana de entrada de 528 meses y un horizonte de predicción de 132 meses, nuestro modelo de 12.5k parámetros logra un Error Cuadrático Medio (MSE) escalado menor, así como errores de amplitud máxima y sincronización de picos inferiores a los de un conjunto de líneas base recurrentes clásicas con hasta 13 veces más parámetros, incluyendo redes de Memoria a Corto-Largo Plazo (LSTM) (25.9k-89.1k parámetros), WaveNet-LSTM (167k), redes neuronales recurrentes estándar (11.5k) y una Red de Estado de Eco Modificada (132k). Para validar la compatibilidad con NISQ, implementamos además el programador rápido entrenado en procesadores cuánticos de IonQ e IBM Quantum, recuperando una precisión de predicción dentro del 0.1% de MSE relativo al simulador sin ruido en 1024 ejecuciones. Estos resultados posicionan a gated QKAN-FWP como un enfoque escalable, eficiente en parámetros y compatible con NISQ para el modelado de secuencias inspirado en la cuántica.
English
Fast Weight Programmers (FWPs) encode temporal dependencies through dynamically updated parameters rather than recurrent hidden states. Quantum FWPs (QFWPs) extend this idea with variational quantum circuits (VQCs), but existing implementations rely on multi-qubit architectures that are difficult to scale on noisy intermediate-scale quantum (NISQ) devices and expensive to simulate classically. We propose gated QKAN-FWP, a fast-weight framework that integrates FWP with Quantum-inspired Kolmogorov-Arnold Network (QKAN) using single-qubit data re-uploading circuits as learnable nonlinear activation, known as DatA Re-Uploading ActivatioN (DARUAN). We further introduce a scalar-gated fast-weight update rule that stabilizes parameter evolution, supported by a theoretical analysis of its adaptive memory kernel, geometric boundedness, and parallelizable gradient paths. We evaluate the framework across time-series benchmarks, MiniGrid reinforcement learning, and highlight real-world solar cycle forecasting as our main practical result. In the long-horizon setting with 528-month input window and 132-month forecast horizon, our 12.5k-parameter model achieves lower scaled Mean Square Error (MSE), peak amplitude error, and peak timing error than a suite of classical recurrent baselines with up to 13x more parameters, including Long Short-Term Memory (LSTM) networks (25.9k-89.1k parameters), WaveNet-LSTM (167k), Vanilla recurrent neural network (11.5k), and a Modified Echo State Network (132k). To validate NISQ compatibility, we further deploy the trained fast programmer on IonQ and IBM Quantum processors, recovering forecasting accuracy within 0.1% relative MSE of the noiseless simulator at 1024 shots. These results position gated QKAN-FWP as a scalable, parameter-efficient, and NISQ-compatible approach to quantum-inspired sequence modeling.
PDF21May 12, 2026