ChatPaper.aiChatPaper

TabReD: Набор данных для оценки машинного обучения на табличных данных в естественной среде

TabReD: A Benchmark of Tabular Machine Learning in-the-Wild

June 27, 2024
Авторы: Ivan Rubachev, Nikolay Kartashev, Yury Gorishniy, Artem Babenko
cs.AI

Аннотация

Бенчмарки, которые тесно отражают сценарии применения на практике, являются необходимыми для более эффективного внедрения новых исследований в области машинного обучения на табличных данных (ML). В данной работе мы изучаем существующие табличные бенчмарки и обнаруживаем две общие характеристики табличных данных высокого уровня, которые недостаточно представлены в наборах данных, доступных академическому сообществу. Во-первых, табличные данные часто изменяются со временем в реальных сценариях применения. Это влияет на производительность модели и требует временного разделения данных на обучающую и тестовую выборки для корректной оценки модели. Тем не менее, существующим академическим табличным наборам данных часто не хватает метаданных временных меток для такой оценки. Во-вторых, значительная часть наборов данных в производственных средах происходит из обширных процессов сбора данных и создания признаков. Для каждого конкретного набора данных это может оказать разное влияние на абсолютное и относительное количество предиктивных, неинформативных и коррелированных признаков, что в свою очередь может повлиять на выбор модели. Для заполнения упомянутых пробелов в академических бенчмарках мы представляем TabReD - коллекцию восьми табличных наборов данных высокого уровня, охватывающих широкий спектр областей от финансов до услуг доставки еды. Мы оцениваем большое количество моделей машинного обучения на табличных данных в условиях данных с богатым набором признаков и изменяющимися со временем, предоставленных TabReD. Мы демонстрируем, что оценка на временных разделениях данных приводит к различным методам ранжирования по сравнению с оценкой на случайных разделениях, более распространенных в академических бенчмарках. Более того, на наборах данных TabReD архитектуры типа MLP и GBDT показывают лучшие результаты, в то время как более сложные модели глубокого обучения еще не доказали свою эффективность.
English
Benchmarks that closely reflect downstream application scenarios are essential for the streamlined adoption of new research in tabular machine learning (ML). In this work, we examine existing tabular benchmarks and find two common characteristics of industry-grade tabular data that are underrepresented in the datasets available to the academic community. First, tabular data often changes over time in real-world deployment scenarios. This impacts model performance and requires time-based train and test splits for correct model evaluation. Yet, existing academic tabular datasets often lack timestamp metadata to enable such evaluation. Second, a considerable portion of datasets in production settings stem from extensive data acquisition and feature engineering pipelines. For each specific dataset, this can have a different impact on the absolute and relative number of predictive, uninformative, and correlated features, which in turn can affect model selection. To fill the aforementioned gaps in academic benchmarks, we introduce TabReD -- a collection of eight industry-grade tabular datasets covering a wide range of domains from finance to food delivery services. We assess a large number of tabular ML models in the feature-rich, temporally-evolving data setting facilitated by TabReD. We demonstrate that evaluation on time-based data splits leads to different methods ranking, compared to evaluation on random splits more common in academic benchmarks. Furthermore, on the TabReD datasets, MLP-like architectures and GBDT show the best results, while more sophisticated DL models are yet to prove their effectiveness.

Summary

AI-Generated Summary

PDF516November 28, 2024