ChatPaper.aiChatPaper

PM-LLM-Benchmark: Оценка больших языковых моделей на задачах по процессному майнингу.

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
Авторы: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

Аннотация

Большие языковые модели (LLM) имеют потенциал для полуавтоматизации некоторых анализов процессов майнинга (PM). В то время как коммерческие модели уже достаточно эффективны для многих аналитических задач, конкурентоспособный уровень открытых LLM в задачах PM неизвестен. В данной статье мы предлагаем PM-LLM-Benchmark, первый всесторонний бенчмарк для PM, сосредоточенный на предметных знаниях (специфичных для процесс-майнинга и конкретных процессов) и на различных стратегиях реализации. Мы также обращаем внимание на вызовы, связанные с созданием такого бенчмарка, включая общедоступность данных и оценочные предвзятости со стороны LLM. В целом, мы отмечаем, что большинство рассматриваемых LLM могут выполнять некоторые задачи по процесс-майнингу на удовлетворительном уровне, но небольшие модели, которые могли бы работать на периферийных устройствах, все еще недостаточны. Мы также приходим к выводу, что хотя предложенный бенчмарк полезен для выявления LLM, подходящих для задач процесс-майнинга, требуется дальнейшее исследование для преодоления оценочных предвзятостей и проведения более тщательного ранжирования конкурентоспособных LLM.
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.

Summary

AI-Generated Summary

PDF22November 28, 2024