TabReD: Um Benchmark de Aprendizado de Máquina em Tabelas na Natureza
TabReD: A Benchmark of Tabular Machine Learning in-the-Wild
June 27, 2024
Autores: Ivan Rubachev, Nikolay Kartashev, Yury Gorishniy, Artem Babenko
cs.AI
Resumo
Referências que refletem de perto cenários de aplicação final são essenciais para a adoção simplificada de novas pesquisas em aprendizado de máquina tabular (ML). Neste trabalho, examinamos benchmarks tabulares existentes e identificamos duas características comuns em dados tabulares de nível industrial que estão sub-representadas nos conjuntos de dados disponíveis para a comunidade acadêmica. Primeiramente, os dados tabulares frequentemente sofrem alterações ao longo do tempo em cenários de implementação do mundo real. Isso afeta o desempenho do modelo e requer divisões de treino e teste baseadas no tempo para uma avaliação correta do modelo. No entanto, conjuntos de dados tabulares acadêmicos existentes frequentemente carecem de metadados de timestamp para permitir tal avaliação. Em segundo lugar, uma parte considerável dos conjuntos de dados em ambientes de produção derivam de extensas aquisições de dados e pipelines de engenharia de características. Para cada conjunto de dados específico, isso pode ter um impacto diferente no número absoluto e relativo de características preditivas, não informativas e correlacionadas, o que por sua vez pode afetar a seleção do modelo. Para preencher as lacunas mencionadas nos benchmarks acadêmicos, apresentamos o TabReD - uma coleção de oito conjuntos de dados tabulares de nível industrial que abrangem uma ampla gama de domínios, desde finanças até serviços de entrega de alimentos. Avaliamos um grande número de modelos de ML tabulares no ambiente de dados rico em recursos e em evolução temporal facilitado pelo TabReD. Demonstramos que a avaliação em divisões de dados baseadas no tempo leva a uma classificação de métodos diferente, em comparação com a avaliação em divisões aleatórias mais comuns em benchmarks acadêmicos. Além disso, nos conjuntos de dados do TabReD, arquiteturas semelhantes a MLP e GBDT apresentam os melhores resultados, enquanto modelos de DL mais sofisticados ainda precisam provar sua eficácia.
English
Benchmarks that closely reflect downstream application scenarios are
essential for the streamlined adoption of new research in tabular machine
learning (ML). In this work, we examine existing tabular benchmarks and find
two common characteristics of industry-grade tabular data that are
underrepresented in the datasets available to the academic community. First,
tabular data often changes over time in real-world deployment scenarios. This
impacts model performance and requires time-based train and test splits for
correct model evaluation. Yet, existing academic tabular datasets often lack
timestamp metadata to enable such evaluation. Second, a considerable portion of
datasets in production settings stem from extensive data acquisition and
feature engineering pipelines. For each specific dataset, this can have a
different impact on the absolute and relative number of predictive,
uninformative, and correlated features, which in turn can affect model
selection. To fill the aforementioned gaps in academic benchmarks, we introduce
TabReD -- a collection of eight industry-grade tabular datasets covering a wide
range of domains from finance to food delivery services. We assess a large
number of tabular ML models in the feature-rich, temporally-evolving data
setting facilitated by TabReD. We demonstrate that evaluation on time-based
data splits leads to different methods ranking, compared to evaluation on
random splits more common in academic benchmarks. Furthermore, on the TabReD
datasets, MLP-like architectures and GBDT show the best results, while more
sophisticated DL models are yet to prove their effectiveness.