Chronos: Das Erlernen der Sprache von Zeitreihen
Chronos: Learning the Language of Time Series
March 12, 2024
Autoren: Abdul Fatir Ansari, Lorenzo Stella, Caner Turkmen, Xiyuan Zhang, Pedro Mercado, Huibin Shen, Oleksandr Shchur, Syama Sundar Rangapuram, Sebastian Pineda Arango, Shubham Kapoor, Jasper Zschiegner, Danielle C. Maddix, Michael W. Mahoney, Kari Torkkola, Andrew Gordon Wilson, Michael Bohlke-Schneider, Yuyang Wang
cs.AI
Zusammenfassung
Wir stellen Chronos vor, ein einfaches, aber effektives Framework für vortrainierte probabilistische Zeitreihenmodelle. Chronos tokenisiert Zeitreihenwerte mithilfe von Skalierung und Quantisierung in ein festes Vokabular und trainiert bestehende auf Transformer basierende Sprachmodellarchitekturen auf diesen tokenisierten Zeitreihen mittels des Kreuzentropieverlusts. Wir haben Chronos-Modelle basierend auf der T5-Familie (mit Parametern von 20M bis 710M) auf einer großen Sammlung öffentlich verfügbarer Datensätze vortrainiert, ergänzt durch einen synthetischen Datensatz, den wir mithilfe von Gauß'schen Prozessen generiert haben, um die Verallgemeinerung zu verbessern. In einem umfassenden Benchmark, bestehend aus 42 Datensätzen und sowohl klassischen lokalen Modellen als auch Deep-Learning-Methoden, zeigen wir, dass Chronos-Modelle: (a) signifikant bessere Leistungen auf Datensätzen erbringen, die Teil des Trainingskorpus waren; und (b) vergleichbare und gelegentlich überlegene Zero-Shot-Leistungen auf neuen Datensätzen aufweisen, im Vergleich zu Methoden, die speziell darauf trainiert wurden. Unsere Ergebnisse zeigen, dass Chronos-Modelle Zeitreihendaten aus verschiedenen Bereichen nutzen können, um die Zero-Shot-Genauigkeit bei unerwarteten Prognoseaufgaben zu verbessern und vortrainierte Modelle als ein geeignetes Werkzeug positionieren, um Prognosepipelines erheblich zu vereinfachen.
English
We introduce Chronos, a simple yet effective framework for pretrained
probabilistic time series models. Chronos tokenizes time series values using
scaling and quantization into a fixed vocabulary and trains existing
transformer-based language model architectures on these tokenized time series
via the cross-entropy loss. We pretrained Chronos models based on the T5 family
(ranging from 20M to 710M parameters) on a large collection of publicly
available datasets, complemented by a synthetic dataset that we generated via
Gaussian processes to improve generalization. In a comprehensive benchmark
consisting of 42 datasets, and comprising both classical local models and deep
learning methods, we show that Chronos models: (a) significantly outperform
other methods on datasets that were part of the training corpus; and (b) have
comparable and occasionally superior zero-shot performance on new datasets,
relative to methods that were trained specifically on them. Our results
demonstrate that Chronos models can leverage time series data from diverse
domains to improve zero-shot accuracy on unseen forecasting tasks, positioning
pretrained models as a viable tool to greatly simplify forecasting pipelines.Summary
AI-Generated Summary