ChatPaper.aiChatPaper

Perché i Sistemi Multi-Agente basati su LLM Falliscono?

Why Do Multi-Agent LLM Systems Fail?

March 17, 2025
Autori: Mert Cemri, Melissa Z. Pan, Shuyi Yang, Lakshya A. Agrawal, Bhavya Chopra, Rishabh Tiwari, Kurt Keutzer, Aditya Parameswaran, Dan Klein, Kannan Ramchandran, Matei Zaharia, Joseph E. Gonzalez, Ion Stoica
cs.AI

Abstract

Nonostante il crescente entusiasmo per i Sistemi Multi-Agente (MAS), in cui più agenti LLM collaborano per completare compiti, i loro miglioramenti nelle prestazioni rispetto ai benchmark più diffusi rimangono minimi se confrontati con i framework a singolo agente. Questo divario evidenzia la necessità di analizzare le sfide che ostacolano l'efficacia dei MAS. In questo articolo, presentiamo il primo studio completo sulle sfide dei MAS. Analizziamo cinque framework MAS popolari su oltre 150 compiti, coinvolgendo sei annotatori umani esperti. Identifichiamo 14 modalità di fallimento uniche e proponiamo una tassonomia completa applicabile a vari framework MAS. Questa tassonomia emerge in modo iterativo dagli accordi tra tre annotatori esperti per studio, raggiungendo un punteggio di Cohen's Kappa di 0,88. Queste modalità di fallimento dettagliate sono organizzate in tre categorie: (i) fallimenti nella specifica e nel design del sistema, (ii) disallineamento tra agenti, e (iii) verifica e terminazione del compito. Per supportare una valutazione scalabile, integriamo MASFT con LLM-as-a-Judge. Esploriamo inoltre se i fallimenti identificati possano essere facilmente prevenuti proponendo due interventi: una migliore specifica dei ruoli degli agenti e strategie di orchestrazione avanzate. I nostri risultati rivelano che i fallimenti identificati richiedono soluzioni più complesse, delineando una chiara roadmap per la ricerca futura. Rendiamo open-source il nostro dataset e l'annotatore LLM.
English
Despite growing enthusiasm for Multi-Agent Systems (MAS), where multiple LLM agents collaborate to accomplish tasks, their performance gains across popular benchmarks remain minimal compared to single-agent frameworks. This gap highlights the need to analyze the challenges hindering MAS effectiveness. In this paper, we present the first comprehensive study of MAS challenges. We analyze five popular MAS frameworks across over 150 tasks, involving six expert human annotators. We identify 14 unique failure modes and propose a comprehensive taxonomy applicable to various MAS frameworks. This taxonomy emerges iteratively from agreements among three expert annotators per study, achieving a Cohen's Kappa score of 0.88. These fine-grained failure modes are organized into 3 categories, (i) specification and system design failures, (ii) inter-agent misalignment, and (iii) task verification and termination. To support scalable evaluation, we integrate MASFT with LLM-as-a-Judge. We also explore if identified failures could be easily prevented by proposing two interventions: improved specification of agent roles and enhanced orchestration strategies. Our findings reveal that identified failures require more complex solutions, highlighting a clear roadmap for future research. We open-source our dataset and LLM annotator.
PDF472March 21, 2025