Voorspellen van Tijdreeksen met LLM's via Patch-Gebaseerde Prompting en Ontbinding
Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition
June 15, 2025
Auteurs: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI
Samenvatting
Recente ontwikkelingen in Large Language Models (LLMs) hebben nieuwe mogelijkheden getoond voor nauwkeurige en efficiënte tijdreeksanalyse, maar eerder werk vereiste vaak intensieve fine-tuning en/of negeerde de correlaties tussen reeksen. In dit onderzoek verkennen we eenvoudige en flexibele promptgebaseerde strategieën die LLMs in staat stellen om tijdreeksvoorspellingen uit te voeren zonder uitgebreide hertraining of het gebruik van een complexe externe architectuur. Door het onderzoeken van gespecialiseerde promptingmethoden die gebruikmaken van tijdreeksdecompositie, patchgebaseerde tokenisatie en op gelijkenis gebaseerde nabuuraugmentatie, ontdekken we dat het mogelijk is om de voorspellingskwaliteit van LLMs te verbeteren terwijl eenvoud wordt behouden en minimale voorbewerking van gegevens vereist is. Hiertoe stellen we onze eigen methode voor, PatchInstruct, die LLMs in staat stelt om precieze en effectieve voorspellingen te maken.
English
Recent advances in Large Language Models (LLMs) have demonstrated new
possibilities for accurate and efficient time series analysis, but prior work
often required heavy fine-tuning and/or ignored inter-series correlations. In
this work, we explore simple and flexible prompt-based strategies that enable
LLMs to perform time series forecasting without extensive retraining or the use
of a complex external architecture. Through the exploration of specialized
prompting methods that leverage time series decomposition, patch-based
tokenization, and similarity-based neighbor augmentation, we find that it is
possible to enhance LLM forecasting quality while maintaining simplicity and
requiring minimal preprocessing of data. To this end, we propose our own
method, PatchInstruct, which enables LLMs to make precise and effective
predictions.