Previsione di Serie Temporali con LLM tramite Prompting a Patch e Decomposizione
Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition
June 15, 2025
Autori: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI
Abstract
I recenti progressi nei Modelli Linguistici di Grande Dimensione (LLM) hanno dimostrato nuove possibilità per un'analisi delle serie temporali accurata ed efficiente, ma i lavori precedenti spesso richiedevano un pesante fine-tuning e/o ignoravano le correlazioni tra le serie. In questo lavoro, esploriamo strategie semplici e flessibili basate su prompt che consentono agli LLM di eseguire previsioni sulle serie temporali senza un ampio riaddestramento o l'uso di un'architettura esterna complessa. Attraverso l'esplorazione di metodi di prompting specializzati che sfruttano la decomposizione delle serie temporali, la tokenizzazione basata su patch e l'aumento dei vicini basato sulla similarità, scopriamo che è possibile migliorare la qualità delle previsioni degli LLM mantenendo la semplicità e richiedendo una pre-elaborazione minima dei dati. A tal fine, proponiamo il nostro metodo, PatchInstruct, che consente agli LLM di effettuare previsioni precise ed efficaci.
English
Recent advances in Large Language Models (LLMs) have demonstrated new
possibilities for accurate and efficient time series analysis, but prior work
often required heavy fine-tuning and/or ignored inter-series correlations. In
this work, we explore simple and flexible prompt-based strategies that enable
LLMs to perform time series forecasting without extensive retraining or the use
of a complex external architecture. Through the exploration of specialized
prompting methods that leverage time series decomposition, patch-based
tokenization, and similarity-based neighbor augmentation, we find that it is
possible to enhance LLM forecasting quality while maintaining simplicity and
requiring minimal preprocessing of data. To this end, we propose our own
method, PatchInstruct, which enables LLMs to make precise and effective
predictions.