ChatPaper.aiChatPaper

ToolHop : un banc d'essai piloté par requêtes pour évaluer les grands modèles de langage dans l'utilisation d'outils multi-sauts

ToolHop: A Query-Driven Benchmark for Evaluating Large Language Models in Multi-Hop Tool Use

January 5, 2025
Auteurs: Junjie Ye, Zhengyin Du, Xuesong Yao, Weijian Lin, Yufei Xu, Zehui Chen, Zaiyuan Wang, Sining Zhu, Zhiheng Xi, Siyu Yuan, Tao Gui, Qi Zhang, Xuanjing Huang, Jiechao Chen
cs.AI

Résumé

L'évaluation efficace de l'utilisation d'outils multi-sauts est cruciale pour analyser la compréhension, le raisonnement et les capacités d'appel de fonctions des grands modèles de langage (LLM). Cependant, les progrès ont été entravés par un manque de jeux de données d'évaluation fiables. Pour remédier à cela, nous présentons ToolHop, un ensemble de données comprenant 995 requêtes utilisateur et 3 912 outils associés, spécifiquement conçu pour une évaluation rigoureuse de l'utilisation d'outils multi-sauts. ToolHop garantit des requêtes diverses, des interdépendances significatives, des outils exécutables localement, des retours détaillés et des réponses vérifiables grâce à une approche novatrice de construction de données pilotée par les requêtes qui inclut la création d'outils, l'affinement des documents et la génération de code. Nous évaluons 14 LLM à travers cinq familles de modèles (c'est-à-dire LLaMA3.1, Qwen2.5, Gemini1.5, Claude3.5 et GPT), mettant en lumière des défis significatifs dans la gestion de scénarios d'utilisation d'outils multi-sauts. Le modèle leader, GPT-4o, atteint une précision de 49,04 %, soulignant un important potentiel d'amélioration. Une analyse plus poussée révèle des variations dans les stratégies d'utilisation d'outils pour différentes familles, offrant des perspectives exploitables pour orienter le développement d'approches plus efficaces. Le code et les données sont disponibles sur https://huggingface.co/bytedance-research/ToolHop.
English
Effective evaluation of multi-hop tool use is critical for analyzing the understanding, reasoning, and function-calling capabilities of large language models (LLMs). However, progress has been hindered by a lack of reliable evaluation datasets. To address this, we present ToolHop, a dataset comprising 995 user queries and 3,912 associated tools, specifically designed for rigorous evaluation of multi-hop tool use. ToolHop ensures diverse queries, meaningful interdependencies, locally executable tools, detailed feedback, and verifiable answers through a novel query-driven data construction approach that includes tool creation, document refinement, and code generation. We evaluate 14 LLMs across five model families (i.e., LLaMA3.1, Qwen2.5, Gemini1.5, Claude3.5, and GPT), uncovering significant challenges in handling multi-hop tool-use scenarios. The leading model, GPT-4o, achieves an accuracy of 49.04%, underscoring substantial room for improvement. Further analysis reveals variations in tool-use strategies for various families, offering actionable insights to guide the development of more effective approaches. Code and data can be found in https://huggingface.co/bytedance-research/ToolHop.

Summary

AI-Generated Summary

PDF113January 7, 2025