ChatPaper.aiChatPaper

PM-LLM-Benchmark : Évaluation des modèles de langage de grande envergure sur des tâches de fouille de processus

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
papers.authors: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

papers.abstract

Les modèles de langage de grande taille (LLMs) ont le potentiel de semi-automatiser certaines analyses de process mining (PM). Bien que les modèles commerciaux soient déjà adaptés à de nombreuses tâches analytiques, le niveau de compétitivité des LLMs open-source dans les tâches de PM reste inconnu. Dans cet article, nous proposons PM-LLM-Benchmark, le premier benchmark complet pour le PM axé sur les connaissances du domaine (spécifiques au process mining et spécifiques aux processus) et sur différentes stratégies de mise en œuvre. Nous nous concentrons également sur les défis liés à la création d'un tel benchmark, concernant la disponibilité publique des données et les biais d'évaluation par les LLMs. Globalement, nous observons que la plupart des LLMs considérés peuvent effectuer certaines tâches de process mining à un niveau satisfaisant, mais les petits modèles qui pourraient fonctionner sur des appareils embarqués sont encore inadéquats. Nous concluons également que si le benchmark proposé est utile pour identifier les LLMs adaptés aux tâches de process mining, des recherches supplémentaires sont nécessaires pour surmonter les biais d'évaluation et effectuer un classement plus approfondi des LLMs compétitifs.
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.
PDF22November 28, 2024