ParalESN:リザバーコンピューティングにおける並列情報処理の実現
ParalESN: Enabling parallel information processing in Reservoir Computing
January 29, 2026
著者: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio
cs.AI
要旨
貯留層コンピューティング(RC)は、時系列処理における効率的なパラダイムとして確立されている。しかし、そのスケーラビリティは、(i) 時系列データを逐次的に処理する必要性、および (ii) 高次元貯留層の膨大なメモリフットプリントによって、深刻に制約されている。本研究では、これらの制限に対処するため、構造化された演算子と状態空間モデリングの観点からRCを再検討し、Parallel Echo State Network(ParalESN)を提案する。ParalESNは、複素空間における対角線形回帰に基づいて、高次元で効率的な貯留層を構築することを可能にし、時系列データの並列処理を実現する。我々は、ParalESNがエコー状態性を保持し、従来のエコー状態ネットワークの普遍性保証を維持するとともに、任意の線形貯留層の等価な表現を複素対角形式で許容することを理論的に分析する。実証的には、ParalESNは時系列ベンチマークにおいて従来のRCの予測精度と同等の結果を示しつつ、計算コストを大幅に削減する。1次元ピクセルレベル分類タスクにおいて、ParalESNは完全に訓練可能なニューラルネットワークと競合する精度を達成し、計算コストとエネルギー消費を桁違いに削減する。全体として、ParalESNは、深層学習の領域内にRCを統合するための、有望でスケーラブルかつ原理に基づいた道筋を提供する。
English
Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.