ChatPaper.aiChatPaper

MONSTER : Répertoire d'Évaluation de Séries Temporelles Scalable de Monash

MONSTER: Monash Scalable Time Series Evaluation Repository

February 21, 2025
Auteurs: Angus Dempster, Navid Mohammadi Foumani, Chang Wei Tan, Lynn Miller, Amish Mishra, Mahsa Salehi, Charlotte Pelletier, Daniel F. Schmidt, Geoffrey I. Webb
cs.AI

Résumé

Nous présentons MONSTER - le MONash Scalable Time Series Evaluation Repository - une collection de grands ensembles de données pour la classification de séries temporelles. Le domaine de la classification des séries temporelles a bénéficié des références communes établies par les dépôts de classification de séries temporelles UCR et UEA. Cependant, les ensembles de données de ces références sont de petite taille, avec des tailles médianes de 217 et 255 exemples, respectivement. Par conséquent, ils favorisent un sous-espace étroit de modèles optimisés pour atteindre une faible erreur de classification sur une grande variété de petits ensembles de données, c'est-à-dire des modèles qui minimisent la variance et accordent peu d'importance aux problèmes de calcul tels que l'évolutivité. Notre espoir est de diversifier le domaine en introduisant des références utilisant des ensembles de données plus volumineux. Nous croyons qu'il existe un énorme potentiel pour de nouveaux progrès dans le domaine en relevant les défis théoriques et pratiques de l'apprentissage efficace à partir de quantités plus importantes de données.
English
We introduce MONSTER-the MONash Scalable Time Series Evaluation Repository-a collection of large datasets for time series classification. The field of time series classification has benefitted from common benchmarks set by the UCR and UEA time series classification repositories. However, the datasets in these benchmarks are small, with median sizes of 217 and 255 examples, respectively. In consequence they favour a narrow subspace of models that are optimised to achieve low classification error on a wide variety of smaller datasets, that is, models that minimise variance, and give little weight to computational issues such as scalability. Our hope is to diversify the field by introducing benchmarks using larger datasets. We believe that there is enormous potential for new progress in the field by engaging with the theoretical and practical challenges of learning effectively from larger quantities of data.

Summary

AI-Generated Summary

PDF32February 25, 2025