ChatPaper.aiChatPaper

DSBench : À quel point les agents de science des données sont-ils proches de devenir des experts en science des données ?

DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?

September 12, 2024
Auteurs: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI

Résumé

Les grands modèles de langage (LLMs) et les grands modèles de vision-langage (LVLMs) ont démontré des capacités impressionnantes de raisonnement langagier/vision, suscitant la récente tendance à construire des agents pour des applications ciblées telles que des assistants shopping ou des ingénieurs logiciels en IA. Récemment, de nombreux bancs d'essai en science des données ont été proposés pour étudier leurs performances dans le domaine de la science des données. Cependant, les bancs d'essai existants en science des données restent encore limités par rapport aux applications réelles de la science des données en raison de leurs paramètres simplifiés. Pour combler ce fossé, nous présentons DSBench, un banc d'essai complet conçu pour évaluer les agents de science des données avec des tâches réalistes. Ce banc d'essai comprend 466 tâches d'analyse de données et 74 tâches de modélisation de données, provenant des compétitions Eloquence et Kaggle. DSBench offre un cadre réaliste en englobant de longs contextes, des arrière-plans de tâches multimodaux, du raisonnement avec de grands fichiers de données et des structures multi-tables, ainsi que l'exécution de tâches de modélisation de données de bout en bout. Notre évaluation des LLMs, LVLMs et agents de pointe montre qu'ils rencontrent des difficultés avec la plupart des tâches, le meilleur agent ne résolvant que 34,12 % des tâches d'analyse de données et atteignant un Écart de Performance Relative (RPG) de 34,74 %. Ces résultats soulignent la nécessité de progresser davantage dans le développement d'agents de science des données plus pratiques, intelligents et autonomes.
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have demonstrated impressive language/vision reasoning abilities, igniting the recent trend of building agents for targeted applications such as shopping assistants or AI software engineers. Recently, many data science benchmarks have been proposed to investigate their performance in the data science domain. However, existing data science benchmarks still fall short when compared to real-world data science applications due to their simplified settings. To bridge this gap, we introduce DSBench, a comprehensive benchmark designed to evaluate data science agents with realistic tasks. This benchmark includes 466 data analysis tasks and 74 data modeling tasks, sourced from Eloquence and Kaggle competitions. DSBench offers a realistic setting by encompassing long contexts, multimodal task backgrounds, reasoning with large data files and multi-table structures, and performing end-to-end data modeling tasks. Our evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle with most tasks, with the best agent solving only 34.12% of data analysis tasks and achieving a 34.74% Relative Performance Gap (RPG). These findings underscore the need for further advancements in developing more practical, intelligent, and autonomous data science agents.

Summary

AI-Generated Summary

PDF695November 16, 2024