PM-LLM-Benchmark: Evaluatie van Grote Taalmodellen op Procesmining-taken
PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks
July 18, 2024
Auteurs: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI
Samenvatting
Grote Taalmodellen (LLMs) hebben het potentieel om sommige procesmining (PM) analyses semi-automatisch uit te voeren. Hoewel commerciële modellen al geschikt zijn voor veel analytische taken, is het competitieve niveau van open-source LLMs bij PM-taken nog onbekend. In dit artikel stellen we PM-LLM-Benchmark voor, de eerste uitgebreide benchmark voor PM die zich richt op domeinkennis (procesmining-specifiek en proces-specifiek) en op verschillende implementatiestrategieën. We richten ons ook op de uitdagingen bij het creëren van zo'n benchmark, gerelateerd aan de publieke beschikbaarheid van de data en aan evaluatievooroordelen door de LLMs. Over het algemeen merken we op dat de meeste van de overwogen LLMs sommige procesmining-taken op een bevredigend niveau kunnen uitvoeren, maar kleine modellen die op edge-apparaten zouden draaien, zijn nog steeds ontoereikend. We concluderen ook dat hoewel de voorgestelde benchmark nuttig is voor het identificeren van LLMs die geschikt zijn voor procesmining-taken, verder onderzoek nodig is om de evaluatievooroordelen te overwinnen en een grondiger rangschikking van de competitieve LLMs uit te voeren.
English
Large Language Models (LLMs) have the potential to semi-automate some process
mining (PM) analyses. While commercial models are already adequate for many
analytics tasks, the competitive level of open-source LLMs in PM tasks is
unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive
benchmark for PM focusing on domain knowledge (process-mining-specific and
process-specific) and on different implementation strategies. We focus also on
the challenges in creating such a benchmark, related to the public availability
of the data and on evaluation biases by the LLMs. Overall, we observe that most
of the considered LLMs can perform some process mining tasks at a satisfactory
level, but tiny models that would run on edge devices are still inadequate. We
also conclude that while the proposed benchmark is useful for identifying LLMs
that are adequate for process mining tasks, further research is needed to
overcome the evaluation biases and perform a more thorough ranking of the
competitive LLMs.