DSBench: データサイエンスエージェントがデータサイエンスの専門家になるまでの道のり
DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?
September 12, 2024
著者: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI
要旨
大規模言語モデル(LLMs)および大規模ビジョン言語モデル(LVLMs)は、印象的な言語/ビジョン推論能力を示し、ショッピングアシスタントやAIソフトウェアエンジニアなどの特定のアプリケーション向けエージェントの構築という最近のトレンドを引き起こしました。最近、多くのデータサイエンスベンチマークが提案され、データサイエンス分野におけるそれらのパフォーマンスを調査しています。しかし、既存のデータサイエンスベンチマークは、その単純化された設定のため、実世界のデータサイエンスアプリケーションと比較してまだ不十分です。このギャップを埋めるために、私たちはDSBenchを紹介します。これは、現実的なタスクでデータサイエンスエージェントを評価するために設計された包括的なベンチマークです。このベンチマークには、EloquenceとKaggleのコンペティションから収集された466のデータ分析タスクと74のデータモデリングタスクが含まれています。DSBenchは、長いコンテキスト、マルチモーダルなタスク背景、大規模データファイルやマルチテーブル構造での推論、エンドツーエンドのデータモデリングタスクを含むことにより、実世界に近い設定を提供しています。最先端のLLMs、LVLMs、およびエージェントの評価結果は、それらがほとんどのタスクに苦戦しており、最も優れたエージェントでデータ分析タスクの34.12%しか解決できず、34.74%の相対パフォーマンスギャップ(RPG)を達成していることを示しています。これらの結果は、より実用的で知的、自律的なデータサイエンスエージェントの開発にさらなる進歩が必要であることを強調しています。
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have
demonstrated impressive language/vision reasoning abilities, igniting the
recent trend of building agents for targeted applications such as shopping
assistants or AI software engineers. Recently, many data science benchmarks
have been proposed to investigate their performance in the data science domain.
However, existing data science benchmarks still fall short when compared to
real-world data science applications due to their simplified settings. To
bridge this gap, we introduce DSBench, a comprehensive benchmark designed to
evaluate data science agents with realistic tasks. This benchmark includes 466
data analysis tasks and 74 data modeling tasks, sourced from Eloquence and
Kaggle competitions. DSBench offers a realistic setting by encompassing long
contexts, multimodal task backgrounds, reasoning with large data files and
multi-table structures, and performing end-to-end data modeling tasks. Our
evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle
with most tasks, with the best agent solving only 34.12% of data analysis tasks
and achieving a 34.74% Relative Performance Gap (RPG). These findings
underscore the need for further advancements in developing more practical,
intelligent, and autonomous data science agents.Summary
AI-Generated Summary