ChatPaper.aiChatPaper

Previsão de Séries Temporais com LLMs por meio de Prompting Baseado em Patches e Decomposição

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
Autores: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

Resumo

Avanços recentes em Modelos de Linguagem de Grande Escala (LLMs) demonstraram novas possibilidades para análises de séries temporais precisas e eficientes, mas trabalhos anteriores frequentemente exigiam ajustes extensivos e/ou ignoravam correlações entre séries. Neste trabalho, exploramos estratégias simples e flexíveis baseadas em prompts que permitem que LLMs realizem previsões de séries temporais sem a necessidade de retreinamento extensivo ou do uso de uma arquitetura externa complexa. Através da exploração de métodos de prompting especializados que aproveitam a decomposição de séries temporais, tokenização baseada em patches e aumento de vizinhos baseado em similaridade, descobrimos que é possível melhorar a qualidade das previsões feitas por LLMs enquanto mantemos a simplicidade e exigimos um pré-processamento mínimo dos dados. Para isso, propomos nosso próprio método, o PatchInstruct, que permite que LLMs façam previsões precisas e eficazes.
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF32June 17, 2025