ChatPaper.aiChatPaper

PM-LLM-벤치마크: 프로세스 마이닝 작업에서의 대형 언어 모델 평가

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
저자: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

초록

대규모 언어 모델(LLM)은 일부 프로세스 마이닝(PM) 분석을 반자동화할 수 있는 잠재력을 가지고 있습니다. 상용 모델들은 이미 많은 분석 작업에 적합하지만, 오픈소스 LLM들이 PM 작업에서 경쟁력 있는 수준인지는 알려져 있지 않습니다. 본 논문에서는 도메인 지식(프로세스 마이닝 특화 및 프로세스 특화)과 다양한 구현 전략에 초점을 맞춘 최초의 포괄적인 PM 벤치마크인 PM-LLM-Benchmark를 제안합니다. 또한, 이러한 벤치마크를 구축하는 과정에서 발생하는 데이터의 공개 가용성과 LLM의 평가 편향과 관련된 문제들에 대해서도 다룹니다. 전반적으로, 고려된 대부분의 LLM이 만족스러운 수준의 프로세스 마이닝 작업을 수행할 수 있지만, 엣지 디바이스에서 실행될 수 있는 소형 모델들은 여전히 부적합한 것으로 나타났습니다. 또한, 제안된 벤치마크가 프로세스 마이닝 작업에 적합한 LLM을 식별하는 데 유용하지만, 평가 편향을 극복하고 경쟁력 있는 LLM들을 보다 철저하게 순위 매기기 위해서는 추가 연구가 필요하다는 결론을 내렸습니다.
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.

Summary

AI-Generated Summary

PDF22November 28, 2024