ChatPaper.aiChatPaper

Prévision de séries temporelles avec des LLM via un promptage par patchs et décomposition

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
Auteurs: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

Résumé

Les récents progrès des modèles de langage à grande échelle (LLMs) ont démontré de nouvelles possibilités pour une analyse de séries temporelles précise et efficace, mais les travaux antérieurs nécessitaient souvent un ajustement fin intensif et/ou ignoraient les corrélations inter-séries. Dans ce travail, nous explorons des stratégies simples et flexibles basées sur des prompts qui permettent aux LLMs d'effectuer des prévisions de séries temporelles sans nécessiter un réentraînement extensif ou l'utilisation d'une architecture externe complexe. À travers l'exploration de méthodes de prompting spécialisées qui exploitent la décomposition des séries temporelles, la tokenisation par patchs et l'augmentation basée sur la similarité des voisins, nous constatons qu'il est possible d'améliorer la qualité des prévisions des LLMs tout en maintenant la simplicité et en nécessitant un prétraitement minimal des données. À cette fin, nous proposons notre propre méthode, PatchInstruct, qui permet aux LLMs de faire des prédictions précises et efficaces.
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF22June 17, 2025