ChatPaper.aiChatPaper

TabReD: Un Benchmark per l'Apprendimento Automatico su Dati Tabellari in Contesti Reali

TabReD: A Benchmark of Tabular Machine Learning in-the-Wild

June 27, 2024
Autori: Ivan Rubachev, Nikolay Kartashev, Yury Gorishniy, Artem Babenko
cs.AI

Abstract

I benchmark che riflettono fedelmente gli scenari applicativi reali sono essenziali per l'adozione efficiente delle nuove ricerche nell'apprendimento automatico (ML) su dati tabellari. In questo lavoro, esaminiamo i benchmark tabellari esistenti e individuiamo due caratteristiche comuni dei dati tabellari di livello industriale che sono sottorappresentate nei dataset disponibili alla comunità accademica. In primo luogo, i dati tabellari spesso cambiano nel tempo negli scenari di deployment reali. Ciò influisce sulle prestazioni del modello e richiede divisioni temporali dei dati di addestramento e test per una corretta valutazione del modello. Tuttavia, i dataset tabellari accademici esistenti spesso mancano di metadati temporali che consentano tale valutazione. In secondo luogo, una parte considerevole dei dataset negli ambienti di produzione deriva da estese pipeline di acquisizione dati e ingegnerizzazione delle feature. Per ogni specifico dataset, ciò può avere un impatto diverso sul numero assoluto e relativo di feature predittive, non informative e correlate, il che a sua volta può influenzare la selezione del modello. Per colmare le lacune sopra menzionate nei benchmark accademici, introduciamo TabReD — una raccolta di otto dataset tabellari di livello industriale che coprono un'ampia gamma di settori, dalla finanza ai servizi di consegna di cibo. Valutiamo un gran numero di modelli ML tabellari nell'ambito di dati ricchi di feature e temporalmente evolutivi reso possibile da TabReD. Dimostriamo che la valutazione su divisioni temporali dei dati porta a un diverso ranking dei metodi rispetto alla valutazione su divisioni casuali più comuni nei benchmark accademici. Inoltre, sui dataset di TabReD, le architetture di tipo MLP e i GBDT mostrano i migliori risultati, mentre i modelli DL più sofisticati devono ancora dimostrare la loro efficacia.
English
Benchmarks that closely reflect downstream application scenarios are essential for the streamlined adoption of new research in tabular machine learning (ML). In this work, we examine existing tabular benchmarks and find two common characteristics of industry-grade tabular data that are underrepresented in the datasets available to the academic community. First, tabular data often changes over time in real-world deployment scenarios. This impacts model performance and requires time-based train and test splits for correct model evaluation. Yet, existing academic tabular datasets often lack timestamp metadata to enable such evaluation. Second, a considerable portion of datasets in production settings stem from extensive data acquisition and feature engineering pipelines. For each specific dataset, this can have a different impact on the absolute and relative number of predictive, uninformative, and correlated features, which in turn can affect model selection. To fill the aforementioned gaps in academic benchmarks, we introduce TabReD -- a collection of eight industry-grade tabular datasets covering a wide range of domains from finance to food delivery services. We assess a large number of tabular ML models in the feature-rich, temporally-evolving data setting facilitated by TabReD. We demonstrate that evaluation on time-based data splits leads to different methods ranking, compared to evaluation on random splits more common in academic benchmarks. Furthermore, on the TabReD datasets, MLP-like architectures and GBDT show the best results, while more sophisticated DL models are yet to prove their effectiveness.
PDF506November 28, 2024