ChatPaper.aiChatPaper

Voorspellen van Tijdreeksen met LLM's via Patch-Gebaseerde Prompting en Ontbinding

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
Auteurs: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

Samenvatting

Recente ontwikkelingen in Large Language Models (LLMs) hebben nieuwe mogelijkheden getoond voor nauwkeurige en efficiënte tijdreeksanalyse, maar eerder werk vereiste vaak intensieve fine-tuning en/of negeerde de correlaties tussen reeksen. In dit onderzoek verkennen we eenvoudige en flexibele promptgebaseerde strategieën die LLMs in staat stellen om tijdreeksvoorspellingen uit te voeren zonder uitgebreide hertraining of het gebruik van een complexe externe architectuur. Door het onderzoeken van gespecialiseerde promptingmethoden die gebruikmaken van tijdreeksdecompositie, patchgebaseerde tokenisatie en op gelijkenis gebaseerde nabuuraugmentatie, ontdekken we dat het mogelijk is om de voorspellingskwaliteit van LLMs te verbeteren terwijl eenvoud wordt behouden en minimale voorbewerking van gegevens vereist is. Hiertoe stellen we onze eigen methode voor, PatchInstruct, die LLMs in staat stelt om precieze en effectieve voorspellingen te maken.
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF32June 17, 2025