ChatPaper.aiChatPaper

TabReD : Un benchmark pour l'apprentissage automatique tabulaire en conditions réelles

TabReD: A Benchmark of Tabular Machine Learning in-the-Wild

June 27, 2024
Auteurs: Ivan Rubachev, Nikolay Kartashev, Yury Gorishniy, Artem Babenko
cs.AI

Résumé

Les benchmarks qui reflètent étroitement les scénarios d'application en aval sont essentiels pour l'adoption fluide des nouvelles recherches en apprentissage automatique (ML) sur données tabulaires. Dans ce travail, nous examinons les benchmarks tabulaires existants et identifions deux caractéristiques communes des données tabulaires de qualité industrielle qui sont sous-représentées dans les ensembles de données disponibles pour la communauté académique. Premièrement, les données tabulaires évoluent souvent dans le temps dans les scénarios de déploiement réels. Cela impacte les performances des modèles et nécessite des divisions temporelles des ensembles d'entraînement et de test pour une évaluation correcte des modèles. Pourtant, les ensembles de données tabulaires académiques existants manquent souvent de métadonnées temporelles pour permettre une telle évaluation. Deuxièmement, une part considérable des ensembles de données dans les environnements de production provient de pipelines étendus d'acquisition de données et d'ingénierie des caractéristiques. Pour chaque ensemble de données spécifique, cela peut avoir un impact différent sur le nombre absolu et relatif de caractéristiques prédictives, non informatives et corrélées, ce qui peut à son tour affecter la sélection des modèles. Pour combler les lacunes susmentionnées dans les benchmarks académiques, nous introduisons TabReD — une collection de huit ensembles de données tabulaires de qualité industrielle couvrant un large éventail de domaines, de la finance aux services de livraison de nourriture. Nous évaluons un grand nombre de modèles de ML tabulaires dans le contexte de données riches en caractéristiques et évoluant dans le temps, facilité par TabReD. Nous démontrons que l'évaluation sur des divisions temporelles des données conduit à un classement différent des méthodes, par rapport à l'évaluation sur des divisions aléatoires plus courantes dans les benchmarks académiques. De plus, sur les ensembles de données TabReD, les architectures de type MLP et GBDT montrent les meilleurs résultats, tandis que les modèles DL plus sophistiqués doivent encore prouver leur efficacité.
English
Benchmarks that closely reflect downstream application scenarios are essential for the streamlined adoption of new research in tabular machine learning (ML). In this work, we examine existing tabular benchmarks and find two common characteristics of industry-grade tabular data that are underrepresented in the datasets available to the academic community. First, tabular data often changes over time in real-world deployment scenarios. This impacts model performance and requires time-based train and test splits for correct model evaluation. Yet, existing academic tabular datasets often lack timestamp metadata to enable such evaluation. Second, a considerable portion of datasets in production settings stem from extensive data acquisition and feature engineering pipelines. For each specific dataset, this can have a different impact on the absolute and relative number of predictive, uninformative, and correlated features, which in turn can affect model selection. To fill the aforementioned gaps in academic benchmarks, we introduce TabReD -- a collection of eight industry-grade tabular datasets covering a wide range of domains from finance to food delivery services. We assess a large number of tabular ML models in the feature-rich, temporally-evolving data setting facilitated by TabReD. We demonstrate that evaluation on time-based data splits leads to different methods ranking, compared to evaluation on random splits more common in academic benchmarks. Furthermore, on the TabReD datasets, MLP-like architectures and GBDT show the best results, while more sophisticated DL models are yet to prove their effectiveness.

Summary

AI-Generated Summary

PDF516November 28, 2024