ChatPaper.aiChatPaper

パッチベースのプロンプティングと分解を活用したLLMによる時系列予測

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
著者: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

要旨

大規模言語モデル(LLMs)の最近の進展により、正確で効率的な時系列分析の新たな可能性が示されていますが、従来の研究では、多くの場合、大規模なファインチューニングが必要であったり、系列間の相関を無視したりしていました。本研究では、LLMsが広範な再学習や複雑な外部アーキテクチャを使用せずに時系列予測を実行できる、シンプルで柔軟なプロンプトベースの戦略を探求します。時系列分解、パッチベースのトークン化、類似性に基づく近傍拡張を活用した専門的なプロンプト手法の探求を通じて、データの前処理を最小限に抑えつつ、LLMの予測品質を向上させることが可能であることを見出しました。この目的のために、LLMsが正確で効果的な予測を行うことを可能にする独自の手法、PatchInstructを提案します。
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF22June 17, 2025