ChatPaper.aiChatPaper

¿Qué agente causa fallos en las tareas y cuándo? Sobre la atribución automática de fallos en sistemas multiagente basados en modelos de lenguaje

Which Agent Causes Task Failures and When? On Automated Failure Attribution of LLM Multi-Agent Systems

April 30, 2025
Autores: Shaokun Zhang, Ming Yin, Jieyu Zhang, Jiale Liu, Zhiguang Han, Jingyang Zhang, Beibin Li, Chi Wang, Huazheng Wang, Yiran Chen, Qingyun Wu
cs.AI

Resumen

La atribución de fallos en sistemas multiagente basados en LLM (Large Language Models) —identificar el agente y el paso responsables de los fallos en las tareas— proporciona pistas cruciales para la depuración de sistemas, pero sigue siendo un área poco explorada y que requiere mucho esfuerzo. En este artículo, proponemos y formulamos una nueva área de investigación: la atribución automatizada de fallos en sistemas multiagente basados en LLM. Para apoyar esta iniciativa, presentamos el conjunto de datos Who&When, que incluye registros extensos de fallos de 127 sistemas multiagente basados en LLM, con anotaciones detalladas que vinculan los fallos a agentes específicos y a los pasos decisivos donde ocurren los errores. Utilizando Who&When, desarrollamos y evaluamos tres métodos automatizados de atribución de fallos, resumiendo sus ventajas y desventajas correspondientes. El mejor método alcanza un 53,5% de precisión en la identificación de los agentes responsables de los fallos, pero solo un 14,2% en la identificación de los pasos críticos, con algunos métodos obteniendo resultados inferiores al azar. Incluso modelos de razonamiento de última generación, como OpenAI o1 y DeepSeek R1, no logran alcanzar una usabilidad práctica. Estos resultados subrayan la complejidad de la tarea y la necesidad de seguir investigando en este ámbito. El código y el conjunto de datos están disponibles en https://github.com/mingyin1/Agents_Failure_Attribution.
English
Failure attribution in LLM multi-agent systems-identifying the agent and step responsible for task failures-provides crucial clues for systems debugging but remains underexplored and labor-intensive. In this paper, we propose and formulate a new research area: automated failure attribution for LLM multi-agent systems. To support this initiative, we introduce the Who&When dataset, comprising extensive failure logs from 127 LLM multi-agent systems with fine-grained annotations linking failures to specific agents and decisive error steps. Using the Who&When, we develop and evaluate three automated failure attribution methods, summarizing their corresponding pros and cons. The best method achieves 53.5% accuracy in identifying failure-responsible agents but only 14.2% in pinpointing failure steps, with some methods performing below random. Even SOTA reasoning models, such as OpenAI o1 and DeepSeek R1, fail to achieve practical usability. These results highlight the task's complexity and the need for further research in this area. Code and dataset are available at https://github.com/mingyin1/Agents_Failure_Attribution

Summary

AI-Generated Summary

PDF31May 7, 2025