ParalESN: Ermöglichung paralleler Informationsverarbeitung im Reservoir Computing
ParalESN: Enabling parallel information processing in Reservoir Computing
January 29, 2026
Autoren: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio
cs.AI
Zusammenfassung
Reservoir Computing (RC) hat sich als effizientes Paradigma für die zeitliche Verarbeitung etabliert. Seine Skalierbarkeit wird jedoch erheblich eingeschränkt durch (i) die Notwendigkeit, zeitliche Daten sequenziell zu verarbeiten, und (ii) den prohibitiv hohen Speicherbedarf hochdimensionaler Reservoirs. In dieser Arbeit betrachten wir RC neu durch die Linse strukturierter Operatoren und Zustandsraummodellierung, um diese Einschränkungen zu adressieren, und führen das Parallele Echo State Network (ParalESN) ein. ParalESN ermöglicht die Konstruktion hochdimensionaler und effizienter Reservoirs auf Basis diagonaler linearer Rekurrenz im komplexen Raum, was eine parallele Verarbeitung zeitlicher Daten erlaubt. Wir liefern eine theoretische Analyse, die zeigt, dass ParalESN die Echo State Property und die Universalitätsgarantien traditioneller Echo State Networks bewahrt, während es eine äquivalente Darstellung beliebiger linearer Reservoirs in diagonaler komplexer Form zulässt. Empirisch erreicht ParalESN die Vorhersagegenauigkeit traditioneller RC auf Zeitreihen-Benchmarks, bei gleichzeitig erheblichen Einsparungen im Rechenaufwand. Bei 1D Klassifizierungsaufgaben auf Pixelebene erzielt ParalESN eine mit vollständig trainierbaren neuronalen Netzen vergleichbare Genauigkeit, reduziert jedoch Rechenkosten und Energieverbrauch um Größenordnungen. Insgesamt bietet ParalESN einen vielversprechenden, skalierbaren und prinzipienbasierten Weg, um RC in die Landschaft des Deep Learning zu integrieren.
English
Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.