Auto-SLURP: Ein Benchmark-Datensatz zur Bewertung von Multi-Agenten-Frameworks für intelligente persönliche Assistenten
Auto-SLURP: A Benchmark Dataset for Evaluating Multi-Agent Frameworks in Smart Personal Assistant
April 25, 2025
Autoren: Lei Shen, Xiaoyu Shen
cs.AI
Zusammenfassung
In den letzten Jahren haben Multi-Agenten-Frameworks, die auf großen Sprachmodellen (LLMs) basieren, rasante Fortschritte gemacht. Trotz dieser Fortschritte gibt es noch einen bemerkenswerten Mangel an Benchmark-Datensätzen, die speziell zur Bewertung ihrer Leistung entwickelt wurden. Um diese Lücke zu schließen, stellen wir Auto-SLURP vor, einen Benchmark-Datensatz, der darauf abzielt, LLM-basierte Multi-Agenten-Frameworks im Kontext intelligenter persönlicher Assistenten zu evaluieren. Auto-SLURP erweitert den ursprünglichen SLURP-Datensatz – der zunächst für Aufgaben des natürlichen Sprachverständnisses entwickelt wurde – durch die Neukennzeichnung der Daten und die Integration simulierter Server und externer Dienste. Diese Erweiterung ermöglicht eine umfassende End-to-End-Evaluationspipeline, die Sprachverständnis, Aufgabenausführung und Antwortgenerierung abdeckt. Unsere Experimente zeigen, dass Auto-SLURP eine erhebliche Herausforderung für aktuelle state-of-the-art Frameworks darstellt, und verdeutlichen, dass wirklich zuverlässige und intelligente Multi-Agenten-Persönliche Assistenten noch in der Entwicklung sind. Der Datensatz und der zugehörige Code sind unter https://github.com/lorashen/Auto-SLURP/ verfügbar.
English
In recent years, multi-agent frameworks powered by large language models
(LLMs) have advanced rapidly. Despite this progress, there is still a notable
absence of benchmark datasets specifically tailored to evaluate their
performance. To bridge this gap, we introduce Auto-SLURP, a benchmark dataset
aimed at evaluating LLM-based multi-agent frameworks in the context of
intelligent personal assistants. Auto-SLURP extends the original SLURP dataset
-- initially developed for natural language understanding tasks -- by
relabeling the data and integrating simulated servers and external services.
This enhancement enables a comprehensive end-to-end evaluation pipeline,
covering language understanding, task execution, and response generation. Our
experiments demonstrate that Auto-SLURP presents a significant challenge for
current state-of-the-art frameworks, highlighting that truly reliable and
intelligent multi-agent personal assistants remain a work in progress. The
dataset and related code are available at
https://github.com/lorashen/Auto-SLURP/.Summary
AI-Generated Summary