Auto-SLURP:スマートパーソナルアシスタントにおけるマルチエージェントフレームワーク評価のためのベンチマークデータセット
Auto-SLURP: A Benchmark Dataset for Evaluating Multi-Agent Frameworks in Smart Personal Assistant
April 25, 2025
著者: Lei Shen, Xiaoyu Shen
cs.AI
要旨
近年、大規模言語モデル(LLM)を基盤としたマルチエージェントフレームワークが急速に進化しています。しかしながら、その性能を評価するために特化したベンチマークデータセットは依然として不足しています。このギャップを埋めるため、我々はAuto-SLURPを導入します。これは、インテリジェントパーソナルアシスタントの文脈において、LLMベースのマルチエージェントフレームワークを評価するためのベンチマークデータセットです。Auto-SLURPは、自然言語理解タスク向けに当初開発されたSLURPデータセットを拡張し、データの再ラベリングとシミュレーションサーバーおよび外部サービスの統合を行っています。これにより、言語理解、タスク実行、応答生成をカバーする包括的なエンドツーエンド評価パイプラインが実現されます。我々の実験結果は、Auto-SLURPが現在の最先端フレームワークにとって重要な課題を提示しており、真に信頼性が高くインテリジェントなマルチエージェントパーソナルアシスタントの実現がまだ進行中であることを示しています。データセットと関連コードはhttps://github.com/lorashen/Auto-SLURP/で公開されています。
English
In recent years, multi-agent frameworks powered by large language models
(LLMs) have advanced rapidly. Despite this progress, there is still a notable
absence of benchmark datasets specifically tailored to evaluate their
performance. To bridge this gap, we introduce Auto-SLURP, a benchmark dataset
aimed at evaluating LLM-based multi-agent frameworks in the context of
intelligent personal assistants. Auto-SLURP extends the original SLURP dataset
-- initially developed for natural language understanding tasks -- by
relabeling the data and integrating simulated servers and external services.
This enhancement enables a comprehensive end-to-end evaluation pipeline,
covering language understanding, task execution, and response generation. Our
experiments demonstrate that Auto-SLURP presents a significant challenge for
current state-of-the-art frameworks, highlighting that truly reliable and
intelligent multi-agent personal assistants remain a work in progress. The
dataset and related code are available at
https://github.com/lorashen/Auto-SLURP/.Summary
AI-Generated Summary