ChatPaper.aiChatPaper

DSBench: Насколько далеки агенты по науке о данных от становления экспертами по науке о данных?

DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?

September 12, 2024
Авторы: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI

Аннотация

Большие языковые модели (LLM) и большие модели видео-языкового восприятия (LVLM) продемонстрировали впечатляющие способности к языковому/визуальному рассуждению, зажигая недавний тренд создания агентов для целевых приложений, таких как помощники по покупкам или искусственные инженеры-программисты. Недавно было предложено много бенчмарков в области науки о данных для изучения их производительности в области науки о данных. Однако существующие бенчмарки в области науки о данных все еще уступают по сравнению с реальными приложениями в области науки о данных из-за упрощенных настроек. Для устранения этого разрыва мы представляем DSBench, комплексный бенчмарк, разработанный для оценки агентов по науке о данных с реалистичными задачами. Этот бенчмарк включает в себя 466 задач анализа данных и 74 задачи моделирования данных, взятые из соревнований Eloquence и Kaggle. DSBench предлагает реалистичную среду, охватывая длинные контексты, мультимодальные фоны задач, рассуждения с большими файлами данных и многотабличные структуры, а также выполнение задач моделирования данных от начала до конца. Наша оценка передовых LLM, LVLM и агентов показывает, что они испытывают трудности с большинством задач, лучший агент решает лишь 34,12% задач анализа данных и достигает 34,74% Относительного разрыва производительности (RPG). Эти результаты подчеркивают необходимость дальнейших усовершенствований в разработке более практичных, интеллектуальных и автономных агентов по науке о данных.
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have demonstrated impressive language/vision reasoning abilities, igniting the recent trend of building agents for targeted applications such as shopping assistants or AI software engineers. Recently, many data science benchmarks have been proposed to investigate their performance in the data science domain. However, existing data science benchmarks still fall short when compared to real-world data science applications due to their simplified settings. To bridge this gap, we introduce DSBench, a comprehensive benchmark designed to evaluate data science agents with realistic tasks. This benchmark includes 466 data analysis tasks and 74 data modeling tasks, sourced from Eloquence and Kaggle competitions. DSBench offers a realistic setting by encompassing long contexts, multimodal task backgrounds, reasoning with large data files and multi-table structures, and performing end-to-end data modeling tasks. Our evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle with most tasks, with the best agent solving only 34.12% of data analysis tasks and achieving a 34.74% Relative Performance Gap (RPG). These findings underscore the need for further advancements in developing more practical, intelligent, and autonomous data science agents.

Summary

AI-Generated Summary

PDF695November 16, 2024