ChatPaper.aiChatPaper

τ-bench : Un benchmark pour l'interaction outil-agent-utilisateur dans des domaines du monde réel

τ-bench: A Benchmark for Tool-Agent-User Interaction in Real-World Domains

June 17, 2024
Auteurs: Shunyu Yao, Noah Shinn, Pedram Razavi, Karthik Narasimhan
cs.AI

Résumé

Les benchmarks existants ne testent pas les agents linguistiques sur leur interaction avec les utilisateurs humains ni sur leur capacité à suivre des règles spécifiques à un domaine, deux aspects pourtant essentiels pour leur déploiement dans des applications réelles. Nous proposons tau-bench, un benchmark simulant des conversations dynamiques entre un utilisateur (simulé par des modèles de langage) et un agent linguistique doté d'outils API spécifiques au domaine et de directives de politique. Nous utilisons un processus d'évaluation efficace et fidèle qui compare l'état de la base de données à la fin d'une conversation avec l'état objectif annoté. Nous proposons également une nouvelle métrique (pass^k) pour évaluer la fiabilité du comportement de l'agent sur plusieurs essais. Nos expériences montrent que même les agents d'appel de fonction les plus avancés (comme gpt-4o) réussissent moins de 50 % des tâches et sont assez incohérents (pass^8 <25 % dans le secteur de la vente au détail). Nos résultats soulignent la nécessité de méthodes capables d'améliorer la capacité des agents à agir de manière cohérente et à suivre les règles de manière fiable.
English
Existing benchmarks do not test language agents on their interaction with human users or ability to follow domain-specific rules, both of which are vital for deploying them in real world applications. We propose tau-bench, a benchmark emulating dynamic conversations between a user (simulated by language models) and a language agent provided with domain-specific API tools and policy guidelines. We employ an efficient and faithful evaluation process that compares the database state at the end of a conversation with the annotated goal state. We also propose a new metric (pass^k) to evaluate the reliability of agent behavior over multiple trials. Our experiments show that even state-of-the-art function calling agents (like gpt-4o) succeed on <50% of the tasks, and are quite inconsistent (pass^8 <25% in retail). Our findings point to the need for methods that can improve the ability of agents to act consistently and follow rules reliably.

Summary

AI-Generated Summary

PDF83December 2, 2024