ChatPaper.aiChatPaper

ParalESN: Abilitazione dell'elaborazione parallela dell'informazione nel Reservoir Computing

ParalESN: Enabling parallel information processing in Reservoir Computing

January 29, 2026
Autori: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio
cs.AI

Abstract

Il Reservoir Computing (RC) si è affermato come un paradigma efficiente per l'elaborazione temporale. Tuttavia, la sua scalabilità rimane fortemente limitata da (i) la necessità di elaborare i dati temporali in modo sequenziale e (ii) l'impronta di memoria proibitiva di reservoir ad alta dimensionalità. In questo lavoro, esaminiamo nuovamente il RC attraverso la lente degli operatori strutturati e della modellazione dello spazio di stato per affrontare queste limitazioni, introducendo la Parallel Echo State Network (ParalESN). ParalESN consente la costruzione di reservoir efficienti e ad alta dimensionalità basati su ricorrenze lineari diagonali nello spazio complesso, permettendo l'elaborazione parallela dei dati temporali. Forniamo un'analisi teorica che dimostra come ParalESN preservi la Proprietà dello Stato di Eco e le garanzie di universalità delle tradizionali Echo State Network, ammettendo al contempo una rappresentazione equivalente di reservoir lineari arbitrari nella forma diagonale complessa. Empiricamente, ParalESN eguaglia l'accuratezza predittiva del RC tradizionale su benchmark di serie temporali, garantendo al contempo sostanziali risparmi computazionali. In compiti di classificazione a livello di pixel 1-D, ParalESN raggiunge un'accuratezza competitiva con le reti neurali completamente addestrabili, riducendo i costi computazionali e il consumo energetico di ordini di grandezza. Nel complesso, ParalESN offre una via promettente, scalabile e fondata su principi teorici per integrare il RC nel panorama dell'apprendimento profondo.
English
Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.
PDF12March 12, 2026