ChatPaper.aiChatPaper

PM-LLM-Benchmark: Evaluación de Modelos de Lenguaje Grandes en Tareas de Minería de Procesos

PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks

July 18, 2024
Autores: Alessandro Berti, Humam Kourani, Wil M. P. van der Aalst
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Tamaño (LLMs, por sus siglas en inglés) tienen el potencial de automatizar parcialmente algunos análisis de minería de procesos (PM). Si bien los modelos comerciales ya son adecuados para muchas tareas analíticas, el nivel competitivo de los LLMs de código abierto en tareas de PM es desconocido. En este documento, proponemos PM-LLM-Benchmark, el primer benchmark integral para PM que se centra en el conocimiento del dominio (específico de la minería de procesos y específico de procesos) y en diferentes estrategias de implementación. También nos enfocamos en los desafíos para crear dicho benchmark, relacionados con la disponibilidad pública de los datos y los sesgos de evaluación por parte de los LLMs. En general, observamos que la mayoría de los LLMs considerados pueden realizar algunas tareas de minería de procesos a un nivel satisfactorio, pero los modelos pequeños que se ejecutarían en dispositivos periféricos aún son inadecuados. Concluimos también que si bien el benchmark propuesto es útil para identificar LLMs adecuados para tareas de minería de procesos, se necesita más investigación para superar los sesgos de evaluación y realizar una clasificación más exhaustiva de los LLMs competitivos.
English
Large Language Models (LLMs) have the potential to semi-automate some process mining (PM) analyses. While commercial models are already adequate for many analytics tasks, the competitive level of open-source LLMs in PM tasks is unknown. In this paper, we propose PM-LLM-Benchmark, the first comprehensive benchmark for PM focusing on domain knowledge (process-mining-specific and process-specific) and on different implementation strategies. We focus also on the challenges in creating such a benchmark, related to the public availability of the data and on evaluation biases by the LLMs. Overall, we observe that most of the considered LLMs can perform some process mining tasks at a satisfactory level, but tiny models that would run on edge devices are still inadequate. We also conclude that while the proposed benchmark is useful for identifying LLMs that are adequate for process mining tasks, further research is needed to overcome the evaluation biases and perform a more thorough ranking of the competitive LLMs.

Summary

AI-Generated Summary

PDF22November 28, 2024