ChatPaper.aiChatPaper

Prognose von Zeitreihen mit LLMs durch patch-basiertes Prompting und Zerlegung

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
papers.authors: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

papers.abstract

Jüngste Fortschritte bei Large Language Models (LLMs) haben neue Möglichkeiten für präzise und effiziente Zeitreihenanalysen aufgezeigt, doch frühere Arbeiten erforderten oft aufwendiges Fine-Tuning und/oder ignorierten Inter-Serien-Korrelationen. In dieser Arbeit untersuchen wir einfache und flexible Prompt-basierte Strategien, die es LLMs ermöglichen, Zeitreihenprognosen ohne umfangreiche Nachschulung oder den Einsatz einer komplexen externen Architektur durchzuführen. Durch die Erforschung spezialisierter Prompting-Methoden, die Zeitreihenzerlegung, Patch-basierte Tokenisierung und Ähnlichkeits-basierte Nachbaraugmentierung nutzen, stellen wir fest, dass es möglich ist, die Prognosequalität von LLMs zu verbessern, während Einfachheit gewahrt und minimaler Datenvorverarbeitungsaufwand benötigt wird. Zu diesem Zweck schlagen wir unsere eigene Methode, PatchInstruct, vor, die es LLMs ermöglicht, präzise und effektive Vorhersagen zu treffen.
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF22June 17, 2025