ChatPaper.aiChatPaper

DSBench: ¿Qué tan lejos están los agentes de ciencia de datos de convertirse en expertos en ciencia de datos?

DSBench: How Far Are Data Science Agents to Becoming Data Science Experts?

September 12, 2024
Autores: Liqiang Jing, Zhehui Huang, Xiaoyang Wang, Wenlin Yao, Wenhao Yu, Kaixin Ma, Hongming Zhang, Xinya Du, Dong Yu
cs.AI

Resumen

Los Modelos de Lenguaje Grandes (LLMs) y los Modelos de Visión-Lenguaje Grandes (LVLMs) han demostrado impresionantes habilidades de razonamiento de lenguaje/visión, dando inicio a la reciente tendencia de construir agentes para aplicaciones específicas como asistentes de compras o ingenieros de software de IA. Recientemente, se han propuesto muchos benchmarks de ciencia de datos para investigar su rendimiento en el ámbito de la ciencia de datos. Sin embargo, los benchmarks de ciencia de datos existentes aún quedan cortos en comparación con las aplicaciones reales de ciencia de datos debido a sus configuraciones simplificadas. Para cerrar esta brecha, presentamos DSBench, un benchmark integral diseñado para evaluar agentes de ciencia de datos con tareas realistas. Este benchmark incluye 466 tareas de análisis de datos y 74 tareas de modelado de datos, obtenidas de competencias de Eloquence y Kaggle. DSBench ofrece un entorno realista al abarcar contextos largos, antecedentes de tareas multimodales, razonamiento con archivos de datos grandes y estructuras de múltiples tablas, y realizar tareas de modelado de datos de extremo a extremo. Nuestra evaluación de los LLMs, LVLMs y agentes de vanguardia muestra que tienen dificultades con la mayoría de las tareas, siendo el mejor agente capaz de resolver solo el 34.12% de las tareas de análisis de datos y logrando una Brecha de Rendimiento Relativo (RPG) del 34.74%. Estos hallazgos subrayan la necesidad de mayores avances en el desarrollo de agentes de ciencia de datos más prácticos, inteligentes y autónomos.
English
Large Language Models (LLMs) and Large Vision-Language Models (LVLMs) have demonstrated impressive language/vision reasoning abilities, igniting the recent trend of building agents for targeted applications such as shopping assistants or AI software engineers. Recently, many data science benchmarks have been proposed to investigate their performance in the data science domain. However, existing data science benchmarks still fall short when compared to real-world data science applications due to their simplified settings. To bridge this gap, we introduce DSBench, a comprehensive benchmark designed to evaluate data science agents with realistic tasks. This benchmark includes 466 data analysis tasks and 74 data modeling tasks, sourced from Eloquence and Kaggle competitions. DSBench offers a realistic setting by encompassing long contexts, multimodal task backgrounds, reasoning with large data files and multi-table structures, and performing end-to-end data modeling tasks. Our evaluation of state-of-the-art LLMs, LVLMs, and agents shows that they struggle with most tasks, with the best agent solving only 34.12% of data analysis tasks and achieving a 34.74% Relative Performance Gap (RPG). These findings underscore the need for further advancements in developing more practical, intelligent, and autonomous data science agents.

Summary

AI-Generated Summary

PDF695November 16, 2024