ChatPaper.aiChatPaper

DSBench: Hoe ver zijn data science agenten verwijderd van het worden van data science experts?

DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?

September 12, 2024
Auteurs: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI

Samenvatting

Grote Taalmodellen (LLM's) en Grote Visie-Taalmodellen (LVLM's) hebben indrukwekkende taal-/visie-redeneervaardigheden aangetoond, wat de recente trend heeft aangewakkerd van het bouwen van agenten voor gerichte toepassingen zoals winkelassistenten of AI-software-ingenieurs. Onlangs zijn er veel gegevenswetenschappelijke benchmarks voorgesteld om hun prestaties in het domein van gegevenswetenschap te onderzoeken. Echter, bestaande gegevenswetenschappelijke benchmarks schieten nog tekort in vergelijking met echte gegevenswetenschappelijke toepassingen vanwege hun vereenvoudigde instellingen. Om deze kloof te overbruggen, introduceren we DSBench, een uitgebreide benchmark ontworpen om gegevenswetenschappelijke agenten te evalueren met realistische taken. Deze benchmark omvat 466 gegevensanalysetaken en 74 gegevensmodelleringstaken, afkomstig van Eloquence en Kaggle-competities. DSBench biedt een realistische setting door lange contexten, multimodale taakachtergronden, redeneren met grote databestanden en multi-tabelstructuren, en het uitvoeren van end-to-end gegevensmodelleringstaken te omvatten. Onze evaluatie van toonaangevende LLM's, LVLM's en agenten toont aan dat ze moeite hebben met de meeste taken, waarbij de beste agent slechts 34,12% van de gegevensanalysetaken oplost en een 34,74% Relatieve Prestatiekloof (RPG) behaalt. Deze bevindingen benadrukken de noodzaak van verdere vooruitgang in de ontwikkeling van meer praktische, intelligente en autonome gegevenswetenschappelijke agenten.
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have demonstrated impressive language/vision reasoning abilities, igniting the recent trend of building agents for targeted applications such as shopping assistants or AI software engineers. Recently, many data science benchmarks have been proposed to investigate their performance in the data science domain. However, existing data science benchmarks still fall short when compared to real-world data science applications due to their simplified settings. To bridge this gap, we introduce DSBench, a comprehensive benchmark designed to evaluate data science agents with realistic tasks. This benchmark includes 466 data analysis tasks and 74 data modeling tasks, sourced from Eloquence and Kaggle competitions. DSBench offers a realistic setting by encompassing long contexts, multimodal task backgrounds, reasoning with large data files and multi-table structures, and performing end-to-end data modeling tasks. Our evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle with most tasks, with the best agent solving only 34.12% of data analysis tasks and achieving a 34.74% Relative Performance Gap (RPG). These findings underscore the need for further advancements in developing more practical, intelligent, and autonomous data science agents.

Summary

AI-Generated Summary

PDF695November 16, 2024