Pourquoi les systèmes multi-agents basés sur LLM échouent-ils ?
Why Do Multi-Agent LLM Systems Fail?
March 17, 2025
Auteurs: Mert Cemri, Melissa Z. Pan, Shuyi Yang, Lakshya A. Agrawal, Bhavya Chopra, Rishabh Tiwari, Kurt Keutzer, Aditya Parameswaran, Dan Klein, Kannan Ramchandran, Matei Zaharia, Joseph E. Gonzalez, Ion Stoica
cs.AI
Résumé
Malgré l'enthousiasme croissant pour les systèmes multi-agents (MAS), où plusieurs agents LLM collaborent pour accomplir des tâches, leurs gains de performance sur les benchmarks populaires restent minimes par rapport aux frameworks mono-agent. Cet écart met en lumière la nécessité d'analyser les défis qui entravent l'efficacité des MAS.
Dans cet article, nous présentons la première étude exhaustive des défis des MAS. Nous analysons cinq frameworks MAS populaires sur plus de 150 tâches, impliquant six annotateurs humains experts. Nous identifions 14 modes d'échec uniques et proposons une taxonomie complète applicable à divers frameworks MAS. Cette taxonomie émerge itérativement des accords entre trois annotateurs experts par étude, atteignant un score de Kappa de Cohen de 0,88. Ces modes d'échec granulaires sont organisés en trois catégories : (i) les échecs de spécification et de conception du système, (ii) le désalignement inter-agents, et (iii) la vérification et la terminaison des tâches. Pour soutenir une évaluation scalable, nous intégrons MASFT avec LLM-as-a-Judge. Nous explorons également si les échecs identifiés pourraient être facilement prévenus en proposant deux interventions : une meilleure spécification des rôles des agents et des stratégies d'orchestration améliorées. Nos résultats révèlent que les échecs identifiés nécessitent des solutions plus complexes, mettant en évidence une feuille de route claire pour les recherches futures. Nous ouvrons notre dataset et notre annotateur LLM en open-source.
English
Despite growing enthusiasm for Multi-Agent Systems (MAS), where multiple LLM
agents collaborate to accomplish tasks, their performance gains across popular
benchmarks remain minimal compared to single-agent frameworks. This gap
highlights the need to analyze the challenges hindering MAS effectiveness.
In this paper, we present the first comprehensive study of MAS challenges. We
analyze five popular MAS frameworks across over 150 tasks, involving six expert
human annotators. We identify 14 unique failure modes and propose a
comprehensive taxonomy applicable to various MAS frameworks. This taxonomy
emerges iteratively from agreements among three expert annotators per study,
achieving a Cohen's Kappa score of 0.88. These fine-grained failure modes are
organized into 3 categories, (i) specification and system design failures, (ii)
inter-agent misalignment, and (iii) task verification and termination. To
support scalable evaluation, we integrate MASFT with LLM-as-a-Judge. We also
explore if identified failures could be easily prevented by proposing two
interventions: improved specification of agent roles and enhanced orchestration
strategies. Our findings reveal that identified failures require more complex
solutions, highlighting a clear roadmap for future research. We open-source our
dataset and LLM annotator.Summary
AI-Generated Summary