패치 기반 프롬프팅과 분해를 통한 LLM 기반 시계열 예측
Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition
June 15, 2025
저자: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI
초록
대규모 언어 모델(LLMs)의 최근 발전은 정확하고 효율적인 시계열 분석을 위한 새로운 가능성을 보여주었지만, 기존 연구들은 대규모 미세 조정을 필요로 하거나 시계열 간 상관관계를 무시하는 경우가 많았습니다. 본 연구에서는 복잡한 외부 아키텍처 사용 없이도 LLMs가 시계열 예측을 수행할 수 있도록 하는 간단하고 유연한 프롬프트 기반 전략을 탐구합니다. 시계열 분해, 패치 기반 토큰화, 유사성 기반 이웃 증강을 활용한 특수화된 프롬프트 방법을 탐구함으로써, 데이터 전처리를 최소화하면서도 LLM의 예측 품질을 향상시킬 수 있음을 발견했습니다. 이를 위해 우리는 LLMs가 정확하고 효과적인 예측을 할 수 있도록 하는 PatchInstruct라는 방법을 제안합니다.
English
Recent advances in Large Language Models (LLMs) have demonstrated new
possibilities for accurate and efficient time series analysis, but prior work
often required heavy fine-tuning and/or ignored inter-series correlations. In
this work, we explore simple and flexible prompt-based strategies that enable
LLMs to perform time series forecasting without extensive retraining or the use
of a complex external architecture. Through the exploration of specialized
prompting methods that leverage time series decomposition, patch-based
tokenization, and similarity-based neighbor augmentation, we find that it is
possible to enhance LLM forecasting quality while maintaining simplicity and
requiring minimal preprocessing of data. To this end, we propose our own
method, PatchInstruct, which enables LLMs to make precise and effective
predictions.