ParalESN: Habilitando el procesamiento paralelo de información en Computación de Depósitos
ParalESN: Enabling parallel information processing in Reservoir Computing
January 29, 2026
Autores: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio
cs.AI
Resumen
La Computación de Depósitos (RC) se ha consolidado como un paradigma eficiente para el procesamiento temporal. Sin embargo, su escalabilidad sigue estando severamente limitada por (i) la necesidad de procesar los datos temporales de forma secuencial y (ii) la huella de memoria prohibitiva de los depósitos de alta dimensión. En este trabajo, revisitamos la RC desde la perspectiva de los operadores estructurados y el modelado de espacio de estados para abordar estas limitaciones, introduciendo la Red de Estados de Eco Paralela (ParalESN). ParalESN permite la construcción de depósitos de alta dimensión y eficientes basados en recurrencia lineal diagonal en el espacio complejo, posibilitando el procesamiento paralelo de datos temporales. Proporcionamos un análisis teórico que demuestra que ParalESN preserva la Propiedad del Estado de Eco y las garantías de universalidad de las Redes de Estados de Eco tradicionales, al tiempo que admite una representación equivalente de cualquier depósito lineal en la forma diagonal compleja. Empíricamente, ParalESN iguala la precisión predictiva de la RC tradicional en benchmarks de series temporales, al mismo tiempo que ofrece ahorros computacionales sustanciales. En tareas de clasificación a nivel de píxel 1-D, ParalESN logra una precisión competitiva con las redes neuronales totalmente entrenables, mientras reduce los costes computacionales y el consumo energético en órdenes de magnitud. En general, ParalESN ofrece una vía prometedora, escalable y fundamentada para integrar la RC en el panorama del aprendizaje profundo.
English
Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.