ChatPaper.aiChatPaper

Pronóstico de Series Temporales con LLMs mediante Prompting Basado en Parches y Descomposición

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
Autores: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

Resumen

Los avances recientes en los Modelos de Lenguaje de Gran Escala (LLMs, por sus siglas en inglés) han demostrado nuevas posibilidades para el análisis preciso y eficiente de series temporales, pero trabajos previos a menudo requerían un ajuste fino intensivo y/o ignoraban las correlaciones entre series. En este trabajo, exploramos estrategias simples y flexibles basadas en prompts que permiten a los LLMs realizar pronósticos de series temporales sin necesidad de un reentrenamiento extenso o el uso de una arquitectura externa compleja. A través de la exploración de métodos de prompting especializados que aprovechan la descomposición de series temporales, la tokenización basada en parches y la ampliación de vecinos basada en similitudes, encontramos que es posible mejorar la calidad de los pronósticos de los LLMs manteniendo la simplicidad y requiriendo un preprocesamiento mínimo de los datos. Con este fin, proponemos nuestro propio método, PatchInstruct, que permite a los LLMs realizar predicciones precisas y efectivas.
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF22June 17, 2025