ParalESN: Обеспечение параллельной обработки информации в резервуарных вычислениях
ParalESN: Enabling parallel information processing in Reservoir Computing
January 29, 2026
Авторы: Matteo Pinna, Giacomo Lagomarsini, Andrea Ceni, Claudio Gallicchio
cs.AI
Аннотация
Резервуарные вычисления (RC) утвердились в качестве эффективной парадигмы для обработки временных данных. Однако их масштабируемость остается серьезно ограниченной (i) необходимостью последовательной обработки временных данных и (ii) чрезмерно большим объемом памяти, требуемым для высокоразмерных резервуаров. В данной работе мы переосмысливаем RC через призму структурированных операторов и моделей пространства состояний, чтобы преодолеть эти ограничения, и представляем Параллельную сеть с эхо-состояниями (ParalESN). ParalESN позволяет конструировать высокоразмерные и эффективные резервуары на основе диагональной линейной рекуррентности в комплексном пространстве, что обеспечивает параллельную обработку временных данных. Мы предоставляем теоретический анализ, демонстрирующий, что ParalESN сохраняет свойство эхо-состояний и гарантии универсальности традиционных сетей с эхо-состояниями, допуская при этом эквивалентное представление произвольных линейных резервуаров в комплексной диагональной форме. Экспериментально показано, что ParalESN соответствует прогностической точности традиционных RC на эталонных задачах прогнозирования временных рядов, обеспечивая при этом существенную экономию вычислительных ресурсов. В задачах одномерной классификации на уровне пикселей ParalESN демонстрирует конкурентоспособную точность с полностью обучаемыми нейронными сетями, сокращая вычислительные затраты и энергопотребление на порядки. В целом, ParalESN предлагает перспективный, масштабируемый и принципиальный путь для интеграции RC в ландшафт глубокого обучения.
English
Reservoir Computing (RC) has established itself as an efficient paradigm for temporal processing. However, its scalability remains severely constrained by (i) the necessity of processing temporal data sequentially and (ii) the prohibitive memory footprint of high-dimensional reservoirs. In this work, we revisit RC through the lens of structured operators and state space modeling to address these limitations, introducing Parallel Echo State Network (ParalESN). ParalESN enables the construction of high-dimensional and efficient reservoirs based on diagonal linear recurrence in the complex space, enabling parallel processing of temporal data. We provide a theoretical analysis demonstrating that ParalESN preserves the Echo State Property and the universality guarantees of traditional Echo State Networks while admitting an equivalent representation of arbitrary linear reservoirs in the complex diagonal form. Empirically, ParalESN matches the predictive accuracy of traditional RC on time series benchmarks, while delivering substantial computational savings. On 1-D pixel-level classification tasks, ParalESN achieves competitive accuracy with fully trainable neural networks while reducing computational costs and energy consumption by orders of magnitude. Overall, ParalESN offers a promising, scalable, and principled pathway for integrating RC within the deep learning landscape.