Por Que Sistemas de LLM Multiagentes Falham?
Why Do Multi-Agent LLM Systems Fail?
March 17, 2025
Autores: Mert Cemri, Melissa Z. Pan, Shuyi Yang, Lakshya A. Agrawal, Bhavya Chopra, Rishabh Tiwari, Kurt Keutzer, Aditya Parameswaran, Dan Klein, Kannan Ramchandran, Matei Zaharia, Joseph E. Gonzalez, Ion Stoica
cs.AI
Resumo
Apesar do crescente entusiasmo pelos Sistemas Multiagentes (MAS), onde múltiplos agentes de LLM colaboram para realizar tarefas, seus ganhos de desempenho em benchmarks populares permanecem mínimos em comparação com frameworks de agente único. Essa lacuna destaca a necessidade de analisar os desafios que impedem a eficácia dos MAS.
Neste artigo, apresentamos o primeiro estudo abrangente dos desafios dos MAS. Analisamos cinco frameworks populares de MAS em mais de 150 tarefas, envolvendo seis anotadores humanos especialistas. Identificamos 14 modos de falha únicos e propomos uma taxonomia abrangente aplicável a vários frameworks de MAS. Essa taxonomia emerge iterativamente a partir de consensos entre três anotadores especialistas por estudo, alcançando um escore de Kappa de Cohen de 0,88. Esses modos de falha detalhados são organizados em três categorias: (i) falhas de especificação e design do sistema, (ii) desalinhamento entre agentes, e (iii) verificação e término da tarefa. Para apoiar uma avaliação escalável, integramos o MASFT com LLM-as-a-Judge. Também exploramos se as falhas identificadas poderiam ser facilmente prevenidas propondo duas intervenções: especificação aprimorada dos papéis dos agentes e estratégias de orquestração melhoradas. Nossas descobertas revelam que as falhas identificadas exigem soluções mais complexas, destacando um roteiro claro para pesquisas futuras. Disponibilizamos nosso conjunto de dados e anotador de LLM como código aberto.
English
Despite growing enthusiasm for Multi-Agent Systems (MAS), where multiple LLM
agents collaborate to accomplish tasks, their performance gains across popular
benchmarks remain minimal compared to single-agent frameworks. This gap
highlights the need to analyze the challenges hindering MAS effectiveness.
In this paper, we present the first comprehensive study of MAS challenges. We
analyze five popular MAS frameworks across over 150 tasks, involving six expert
human annotators. We identify 14 unique failure modes and propose a
comprehensive taxonomy applicable to various MAS frameworks. This taxonomy
emerges iteratively from agreements among three expert annotators per study,
achieving a Cohen's Kappa score of 0.88. These fine-grained failure modes are
organized into 3 categories, (i) specification and system design failures, (ii)
inter-agent misalignment, and (iii) task verification and termination. To
support scalable evaluation, we integrate MASFT with LLM-as-a-Judge. We also
explore if identified failures could be easily prevented by proposing two
interventions: improved specification of agent roles and enhanced orchestration
strategies. Our findings reveal that identified failures require more complex
solutions, highlighting a clear roadmap for future research. We open-source our
dataset and LLM annotator.Summary
AI-Generated Summary