ChatPaper.aiChatPaper

Прогнозирование временных рядов с использованием LLM через патч-ориентированные подсказки и декомпозицию

Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition

June 15, 2025
Авторы: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen, Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
cs.AI

Аннотация

Последние достижения в области больших языковых моделей (LLM) открыли новые возможности для точного и эффективного анализа временных рядов, однако предыдущие работы часто требовали значительной тонкой настройки и/или игнорировали межрядные корреляции. В данной работе мы исследуем простые и гибкие стратегии на основе промптов, которые позволяют LLM выполнять прогнозирование временных рядов без необходимости масштабного переобучения или использования сложной внешней архитектуры. Изучая специализированные методы промптинга, которые используют декомпозицию временных рядов, токенизацию на основе патчей и дополнение соседей на основе сходства, мы обнаруживаем, что можно повысить качество прогнозирования LLM, сохраняя простоту и требуя минимальной предварительной обработки данных. В связи с этим мы предлагаем наш собственный метод, PatchInstruct, который позволяет LLM делать точные и эффективные прогнозы.
English
Recent advances in Large Language Models (LLMs) have demonstrated new possibilities for accurate and efficient time series analysis, but prior work often required heavy fine-tuning and/or ignored inter-series correlations. In this work, we explore simple and flexible prompt-based strategies that enable LLMs to perform time series forecasting without extensive retraining or the use of a complex external architecture. Through the exploration of specialized prompting methods that leverage time series decomposition, patch-based tokenization, and similarity-based neighbor augmentation, we find that it is possible to enhance LLM forecasting quality while maintaining simplicity and requiring minimal preprocessing of data. To this end, we propose our own method, PatchInstruct, which enables LLMs to make precise and effective predictions.
PDF22June 17, 2025