ChatPaper.aiChatPaper

PM-LLM-Benchmark: Avaliando Modelos de Linguagem Grandes em Tarefas de Mineração de Processos

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
Autores: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

Resumo

Os Modelos de Linguagem de Grande Escala (LLMs) têm o potencial de automatizar parcialmente algumas análises de mineração de processos (PM). Embora os modelos comerciais já sejam adequados para muitas tarefas analíticas, o nível competitivo dos LLMs de código aberto em tarefas de PM é desconhecido. Neste artigo, propomos o PM-LLM-Benchmark, o primeiro benchmark abrangente para PM com foco no conhecimento de domínio (específico de mineração de processos e específico de processos) e em diferentes estratégias de implementação. Também nos concentramos nos desafios em criar um benchmark desse tipo, relacionados à disponibilidade pública dos dados e aos vieses de avaliação pelos LLMs. Em geral, observamos que a maioria dos LLMs considerados pode realizar algumas tarefas de mineração de processos em um nível satisfatório, mas os modelos pequenos que seriam executados em dispositivos de borda ainda são inadequados. Concluímos também que, embora o benchmark proposto seja útil para identificar LLMs adequados para tarefas de mineração de processos, são necessárias mais pesquisas para superar os vieses de avaliação e realizar uma classificação mais abrangente dos LLMs competitivos.
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.
PDF22November 28, 2024