ChatPaper.aiChatPaper

ParalESN: Permitindo o processamento paralelo de informação na Computação de Reservatórios

ParalESN: Enabling parallel information processing in Reservoir Computing

January 29, 2026
Autores: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio
cs.AI

Resumo

A Computação de Reservatórios (RC) estabeleceu-se como um paradigma eficiente para processamento temporal. No entanto, a sua escalabilidade permanece severamente limitada por (i) a necessidade de processar dados temporais sequencialmente e (ii) a pegada de memória proibitiva de reservatórios de alta dimensão. Neste trabalho, revisitamos a RC através da lente de operadores estruturados e modelação de espaço de estados para superar estas limitações, introduzindo a Rede de Eco Paralela (ParalESN). A ParalESN permite a construção de reservatórios de alta dimensão e eficientes baseados em recorrência linear diagonal no espaço complexo, permitindo o processamento paralelo de dados temporais. Fornecemos uma análise teórica demonstrando que a ParalESN preserva a Propriedade do Estado de Eco e as garantias de universalidade das Redes de Eco tradicionais, admitindo simultaneamente uma representação equivalente de reservatórios lineares arbitrários na forma diagonal complexa. Empiricamente, a ParalESN iguala a precisão preditiva da RC tradicional em benchmarks de séries temporais, ao mesmo tempo que proporciona economias computacionais substanciais. Em tarefas de classificação a nível de píxeis 1-D, a ParalESN atinge uma precisão competitiva com redes neuronais totalmente treináveis, enquanto reduz os custos computacionais e o consumo de energia em ordens de magnitude. No geral, a ParalESN oferece um caminho promissor, escalável e fundamentado para integrar a RC no panorama da aprendizagem profunda.
English
Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.
PDF12March 12, 2026