Chronos: Das Erlernen der Sprache von Zeitreihen

Chronos: Learning the Language of Time Series

March 12, 2024
Autoren: Abdul Fatir Ansari, Lorenzo Stella, Caner Turkmen, Xiyuan Zhang, Pedro Mercado, Huibin Shen, Oleksandr Shchur, Syama Sundar Rangapuram, Sebastian Pineda Arango, Shubham Kapoor, Jasper Zschiegner, Danielle C. Maddix, Michael W. Mahoney, Kari Torkkola, Andrew Gordon Wilson, Michael Bohlke-Schneider, Yuyang Wang
cs.AI

Zusammenfassung

Wir stellen Chronos vor, ein einfaches, aber effektives Framework für vortrainierte probabilistische Zeitreihenmodelle. Chronos tokenisiert Zeitreihenwerte mithilfe von Skalierung und Quantisierung in ein festes Vokabular und trainiert bestehende auf Transformer basierende Sprachmodellarchitekturen auf diesen tokenisierten Zeitreihen mittels des Kreuzentropieverlusts. Wir haben Chronos-Modelle basierend auf der T5-Familie (mit Parametern von 20M bis 710M) auf einer großen Sammlung öffentlich verfügbarer Datensätze vortrainiert, ergänzt durch einen synthetischen Datensatz, den wir mithilfe von Gauß'schen Prozessen generiert haben, um die Verallgemeinerung zu verbessern. In einem umfassenden Benchmark, bestehend aus 42 Datensätzen und sowohl klassischen lokalen Modellen als auch Deep-Learning-Methoden, zeigen wir, dass Chronos-Modelle: (a) signifikant bessere Leistungen auf Datensätzen erbringen, die Teil des Trainingskorpus waren; und (b) vergleichbare und gelegentlich überlegene Zero-Shot-Leistungen auf neuen Datensätzen aufweisen, im Vergleich zu Methoden, die speziell darauf trainiert wurden. Unsere Ergebnisse zeigen, dass Chronos-Modelle Zeitreihendaten aus verschiedenen Bereichen nutzen können, um die Zero-Shot-Genauigkeit bei unerwarteten Prognoseaufgaben zu verbessern und vortrainierte Modelle als ein geeignetes Werkzeug positionieren, um Prognosepipelines erheblich zu vereinfachen.
English
We introduce Chronos, a simple yet effective framework for pretrained probabilistic time series models. Chronos tokenizes time series values using scaling and quantization into a fixed vocabulary and trains existing transformer-based language model architectures on these tokenized time series via the cross-entropy loss. We pretrained Chronos models based on the T5 family (ranging from 20M to 710M parameters) on a large collection of publicly available datasets, complemented by a synthetic dataset that we generated via Gaussian processes to improve generalization. In a comprehensive benchmark consisting of 42 datasets, and comprising both classical local models and deep learning methods, we show that Chronos models: (a) significantly outperform other methods on datasets that were part of the training corpus; and (b) have comparable and occasionally superior zero-shot performance on new datasets, relative to methods that were trained specifically on them. Our results demonstrate that Chronos models can leverage time series data from diverse domains to improve zero-shot accuracy on unseen forecasting tasks, positioning pretrained models as a viable tool to greatly simplify forecasting pipelines.

Summary

AI-Generated Summary

PDF485December 15, 2024