ChatPaper.aiChatPaper

TabReD: Un conjunto de pruebas de aprendizaje automático tabular en entornos reales

TabReD: A Benchmark of Tabular Machine Learning in-the-Wild

June 27, 2024
Autores: Ivan Rubachev, Nikolay Kartashev, Yury Gorishniy, Artem Babenko
cs.AI

Resumen

Los puntos de referencia que reflejan de cerca los escenarios de aplicación son esenciales para la adopción eficiente de nuevas investigaciones en aprendizaje automático tabular (ML). En este trabajo, examinamos los puntos de referencia tabulares existentes y encontramos dos características comunes de los datos tabulares de calidad industrial que están subrepresentadas en los conjuntos de datos disponibles para la comunidad académica. En primer lugar, los datos tabulares a menudo cambian con el tiempo en escenarios de implementación del mundo real. Esto afecta el rendimiento del modelo y requiere divisiones de entrenamiento y prueba basadas en el tiempo para una evaluación correcta del modelo. Sin embargo, los conjuntos de datos tabulares académicos existentes a menudo carecen de metadatos de marca de tiempo para habilitar dicha evaluación. En segundo lugar, una parte considerable de los conjuntos de datos en entornos de producción proviene de extensos procesos de adquisición de datos e ingeniería de características. Para cada conjunto de datos específico, esto puede tener un impacto diferente en el número absoluto y relativo de características predictivas, no informativas y correlacionadas, lo que a su vez puede afectar la selección del modelo. Para cubrir las brechas mencionadas en los puntos de referencia académicos, presentamos TabReD, una colección de ocho conjuntos de datos tabulares de calidad industrial que abarcan una amplia gama de dominios, desde finanzas hasta servicios de entrega de alimentos. Evaluamos un gran número de modelos de ML tabulares en el entorno de datos rico en características y en evolución temporal facilitado por TabReD. Demostramos que la evaluación en divisiones de datos basadas en el tiempo conduce a una clasificación de métodos diferente, en comparación con la evaluación en divisiones aleatorias más comunes en los puntos de referencia académicos. Además, en los conjuntos de datos de TabReD, las arquitecturas tipo MLP y GBDT muestran los mejores resultados, mientras que los modelos de DL más sofisticados aún tienen que demostrar su efectividad.
English
Benchmarks that closely reflect downstream application scenarios are essential for the streamlined adoption of new research in tabular machine learning (ML). In this work, we examine existing tabular benchmarks and find two common characteristics of industry-grade tabular data that are underrepresented in the datasets available to the academic community. First, tabular data often changes over time in real-world deployment scenarios. This impacts model performance and requires time-based train and test splits for correct model evaluation. Yet, existing academic tabular datasets often lack timestamp metadata to enable such evaluation. Second, a considerable portion of datasets in production settings stem from extensive data acquisition and feature engineering pipelines. For each specific dataset, this can have a different impact on the absolute and relative number of predictive, uninformative, and correlated features, which in turn can affect model selection. To fill the aforementioned gaps in academic benchmarks, we introduce TabReD -- a collection of eight industry-grade tabular datasets covering a wide range of domains from finance to food delivery services. We assess a large number of tabular ML models in the feature-rich, temporally-evolving data setting facilitated by TabReD. We demonstrate that evaluation on time-based data splits leads to different methods ranking, compared to evaluation on random splits more common in academic benchmarks. Furthermore, on the TabReD datasets, MLP-like architectures and GBDT show the best results, while more sophisticated DL models are yet to prove their effectiveness.

Summary

AI-Generated Summary

PDF516November 28, 2024