ChatPaper.aiChatPaper

PM-LLMベンチマーク:プロセスマイニングタスクにおける大規模言語モデルの評価

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
著者: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

要旨

大規模言語モデル(LLM)は、プロセスマイニング(PM)分析の一部を半自動化する可能性を秘めています。商用モデルは既に多くの分析タスクに適していますが、オープンソースのLLMがPMタスクにおいてどの程度競争力があるかは不明です。本論文では、ドメイン知識(プロセスマイニング固有およびプロセス固有)と異なる実装戦略に焦点を当てた、PM-LLM-Benchmarkという初の包括的なベンチマークを提案します。また、このようなベンチマークを作成する際の課題、特にデータの公開可能性とLLMによる評価バイアスについても取り上げます。全体として、検討されたLLMの多くは、満足のいくレベルで一部のプロセスマイニングタスクを実行できることが観察されましたが、エッジデバイスで動作する小型モデルはまだ不十分です。さらに、提案されたベンチマークはプロセスマイニングタスクに適したLLMを特定するのに有用であるものの、評価バイアスを克服し、競争力のあるLLMをより徹底的にランク付けするためには、さらなる研究が必要であると結論付けます。
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.

Summary

AI-Generated Summary

PDF22November 28, 2024