ChatPaper.aiChatPaper

Почему трансформеры не справляются с прогнозированием временных рядов в контексте?

Why Do Transformers Fail to Forecast Time Series In-Context?

October 10, 2025
Авторы: Yufa Zhou, Yixiao Wang, Surbhi Goel, Anru R. Zhang
cs.AI

Аннотация

Прогнозирование временных рядов (TSF) остается сложной и в значительной степени нерешенной задачей в машинном обучении, несмотря на недавние значительные усилия, связанные с использованием крупных языковых моделей (LLMs), которые преимущественно опираются на архитектуры Transformer. Эмпирические данные последовательно показывают, что даже мощные Transformer часто не превосходят гораздо более простые модели, например, линейные модели, в задачах TSF; однако строгое теоретическое понимание этого явления остается ограниченным. В данной статье мы предоставляем теоретический анализ ограничений Transformer для TSF через призму теории обучения в контексте (In-Context Learning, ICL). В частности, для данных AR(p) мы устанавливаем, что: (1) модели с линейным самовниманием (Linear Self-Attention, LSA) не могут достичь меньшей ожидаемой среднеквадратичной ошибки (MSE), чем классические линейные модели, для прогнозирования в контексте; (2) при увеличении длины контекста до бесконечности LSA асимптотически восстанавливает оптимальный линейный предиктор; и (3) при использовании логического вывода в стиле "цепочки рассуждений" (Chain-of-Thought, CoT) предсказания экспоненциально стремятся к среднему значению. Мы эмпирически подтверждаем эти выводы с помощью тщательно спланированных экспериментов. Наша теория не только проливает свет на несколько ранее недостаточно изученных явлений, но и предлагает практические рекомендации для разработки более эффективных архитектур прогнозирования. Мы надеемся, что наша работа побудит более широкое исследовательское сообщество пересмотреть фундаментальные теоретические ограничения TSF и критически оценить прямое применение все более сложных архитектур без глубокого анализа.
English
Time series forecasting (TSF) remains a challenging and largely unsolved problem in machine learning, despite significant recent efforts leveraging Large Language Models (LLMs), which predominantly rely on Transformer architectures. Empirical evidence consistently shows that even powerful Transformers often fail to outperform much simpler models, e.g., linear models, on TSF tasks; however, a rigorous theoretical understanding of this phenomenon remains limited. In this paper, we provide a theoretical analysis of Transformers' limitations for TSF through the lens of In-Context Learning (ICL) theory. Specifically, under AR(p) data, we establish that: (1) Linear Self-Attention (LSA) models cannot achieve lower expected MSE than classical linear models for in-context forecasting; (2) as the context length approaches to infinity, LSA asymptotically recovers the optimal linear predictor; and (3) under Chain-of-Thought (CoT) style inference, predictions collapse to the mean exponentially. We empirically validate these findings through carefully designed experiments. Our theory not only sheds light on several previously underexplored phenomena but also offers practical insights for designing more effective forecasting architectures. We hope our work encourages the broader research community to revisit the fundamental theoretical limitations of TSF and to critically evaluate the direct application of increasingly sophisticated architectures without deeper scrutiny.
PDF12October 15, 2025