DSBench: Wie weit sind Datenwissenschaftsagenten davon entfernt, Datenwissenschaftsexperten zu werden?
DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?
September 12, 2024
Autoren: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI
Zusammenfassung
Große Sprachmodelle (LLMs) und große Vision-Sprachmodelle (LVLMs) haben beeindruckende Sprach-/Bild-Argumentationsfähigkeiten gezeigt, die den aktuellen Trend der Entwicklung von Agenten für gezielte Anwendungen wie Einkaufsassistenten oder KI-Softwareingenieure ausgelöst haben. In letzter Zeit wurden viele Benchmarks im Bereich der Datenwissenschaft vorgeschlagen, um ihre Leistung im Bereich der Datenwissenschaft zu untersuchen. Allerdings reichen bestehende Benchmarks im Bereich der Datenwissenschaft im Vergleich zu realen Datenwissenschaftsanwendungen aufgrund ihrer vereinfachten Einstellungen noch nicht aus. Um diese Lücke zu schließen, stellen wir DSBench vor, einen umfassenden Benchmark, der entwickelt wurde, um Datenwissenschaftsagenten mit realistischen Aufgaben zu bewerten. Dieser Benchmark umfasst 466 Datenanalyseaufgaben und 74 Datenmodellierungsaufgaben, die aus Eloquence- und Kaggle-Wettbewerben stammen. DSBench bietet eine realistische Umgebung, indem es lange Kontexte, multimodale Aufgabenhintergründe, Argumentation mit großen Datendateien und mehrtabellarische Strukturen sowie die Durchführung von End-to-End-Datenmodellierungsaufgaben einschließt. Unsere Evaluation der modernsten LLMs, LVLMs und Agenten zeigt, dass sie bei den meisten Aufgaben Schwierigkeiten haben, wobei der beste Agent nur 34,12% der Datenanalyseaufgaben löst und eine Relative Performance Gap (RPG) von 34,74% erreicht. Diese Ergebnisse unterstreichen die Notwendigkeit weiterer Fortschritte bei der Entwicklung praktischerer, intelligenterer und autonomer Datenwissenschaftsagenten.
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have
demonstrated impressive language/vision reasoning abilities, igniting the
recent trend of building agents for targeted applications such as shopping
assistants or AI software engineers. Recently, many data science benchmarks
have been proposed to investigate their performance in the data science domain.
However, existing data science benchmarks still fall short when compared to
real-world data science applications due to their simplified settings. To
bridge this gap, we introduce DSBench, a comprehensive benchmark designed to
evaluate data science agents with realistic tasks. This benchmark includes 466
data analysis tasks and 74 data modeling tasks, sourced from Eloquence and
Kaggle competitions. DSBench offers a realistic setting by encompassing long
contexts, multimodal task backgrounds, reasoning with large data files and
multi-table structures, and performing end-to-end data modeling tasks. Our
evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle
with most tasks, with the best agent solving only 34.12% of data analysis tasks
and achieving a 34.74% Relative Performance Gap (RPG). These findings
underscore the need for further advancements in developing more practical,
intelligent, and autonomous data science agents.Summary
AI-Generated Summary