DSBench: Quanto sono lontani gli agenti di Data Science dall'avvicinarsi agli Esperti di Data Science?
DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?
September 12, 2024
Autori: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI
Abstract
I Large Language Models (LLM) e i Large Vision-Language Models (LVLM) hanno dimostrato notevoli capacità di ragionamento linguistico/visivo, dando il via alla recente tendenza di costruire agenti per applicazioni mirate come assistenti per lo shopping o ingegneri software di intelligenza artificiale. Di recente, sono stati proposti molti benchmark di scienza dei dati per investigare le loro prestazioni nel campo della scienza dei dati. Tuttavia, i benchmark esistenti di scienza dei dati ancora non sono all'altezza rispetto alle applicazioni reali di scienza dei dati a causa delle loro impostazioni semplificate. Per colmare questa lacuna, presentiamo DSBench, un benchmark completo progettato per valutare agenti di scienza dei dati con compiti realistici. Questo benchmark include 466 compiti di analisi dei dati e 74 compiti di modellazione dei dati, provenienti da competizioni di Eloquence e Kaggle. DSBench offre un contesto realistico che include contesti lunghi, sfondi di compiti multimodali, ragionamento con ampi file di dati e strutture multi-tabella, e svolgimento di compiti di modellazione dei dati end-to-end. La nostra valutazione dei migliori LLM, LVLM e agenti mostra che faticano con la maggior parte dei compiti, con il miglior agente che risolve solo il 34,12% dei compiti di analisi dei dati e raggiunge un Gap di Prestazioni Relativo (RPG) del 34,74%. Questi risultati sottolineano la necessità di ulteriori progressi nello sviluppo di agenti di scienza dei dati più pratici, intelligenti e autonomi.
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have
demonstrated impressive language/vision reasoning abilities, igniting the
recent trend of building agents for targeted applications such as shopping
assistants or AI software engineers. Recently, many data science benchmarks
have been proposed to investigate their performance in the data science domain.
However, existing data science benchmarks still fall short when compared to
real-world data science applications due to their simplified settings. To
bridge this gap, we introduce DSBench, a comprehensive benchmark designed to
evaluate data science agents with realistic tasks. This benchmark includes 466
data analysis tasks and 74 data modeling tasks, sourced from Eloquence and
Kaggle competitions. DSBench offers a realistic setting by encompassing long
contexts, multimodal task backgrounds, reasoning with large data files and
multi-table structures, and performing end-to-end data modeling tasks. Our
evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle
with most tasks, with the best agent solving only 34.12% of data analysis tasks
and achieving a 34.74% Relative Performance Gap (RPG). These findings
underscore the need for further advancements in developing more practical,
intelligent, and autonomous data science agents.Summary
AI-Generated Summary