ChatPaper.aiChatPaper

PM-LLM-Benchmark: Evaluierung von Large Language Models bei Prozess-Mining-Aufgaben

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
Autoren: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

Zusammenfassung

Große Sprachmodelle (LLMs) haben das Potenzial, einige Prozessanalyse (PM) Analysen teilweise zu automatisieren. Während kommerzielle Modelle bereits für viele Analyseaufgaben ausreichend sind, ist der Wettbewerbsstand von Open-Source LLMs in PM-Aufgaben unbekannt. In diesem Paper schlagen wir PM-LLM-Benchmark vor, den ersten umfassenden Benchmark für PM, der sich auf Domänenwissen (spezifisch für Prozessanalyse und prozessspezifisch) sowie auf verschiedene Implementierungsstrategien konzentriert. Wir beleuchten auch die Herausforderungen bei der Erstellung eines solchen Benchmarks, die mit der öffentlichen Verfügbarkeit der Daten und den Bewertungsverzerrungen durch die LLMs zusammenhängen. Insgesamt stellen wir fest, dass die meisten betrachteten LLMs einige Prozessanalyseaufgaben auf zufriedenstellendem Niveau ausführen können, aber kleine Modelle, die auf Edge-Geräten laufen würden, noch unzureichend sind. Wir kommen auch zu dem Schluss, dass der vorgeschlagene Benchmark zwar nützlich ist, um LLMs zu identifizieren, die für Prozessanalyseaufgaben geeignet sind, jedoch weitere Forschung erforderlich ist, um die Bewertungsverzerrungen zu überwinden und ein gründlicheres Ranking der wettbewerbsfähigen LLMs durchzuführen.
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.

Summary

AI-Generated Summary

PDF22November 28, 2024