ChatPaper.aiChatPaper

Почему терпят неудачу многоагентные системы на основе языковых моделей?

Why Do Multi-Agent LLM Systems Fail?

March 17, 2025
Авторы: Mert Cemri, Melissa Z. Pan, Shuyi Yang, Lakshya A. Agrawal, Bhavya Chopra, Rishabh Tiwari, Kurt Keutzer, Aditya Parameswaran, Dan Klein, Kannan Ramchandran, Matei Zaharia, Joseph E. Gonzalez, Ion Stoica
cs.AI

Аннотация

Несмотря на растущий энтузиазм в отношении многоагентных систем (MAS), где несколько агентов на основе больших языковых моделей (LLM) взаимодействуют для выполнения задач, их прирост производительности на популярных тестовых наборах остается минимальным по сравнению с одноагентными подходами. Этот разрыв подчеркивает необходимость анализа проблем, препятствующих эффективности MAS. В данной статье мы представляем первое всестороннее исследование проблем MAS. Мы анализируем пять популярных фреймворков MAS на более чем 150 задачах с участием шести экспертов-аннотаторов. Мы выявляем 14 уникальных типов сбоев и предлагаем универсальную таксономию, применимую к различным фреймворкам MAS. Эта таксономия разработана итеративно на основе согласованных решений трех экспертов-аннотаторов для каждого исследования, достигая коэффициента Каппа Коэна 0,88. Эти детализированные типы сбоев организованы в три категории: (i) ошибки спецификации и проектирования системы, (ii) рассогласование между агентами и (iii) проверка и завершение задач. Для поддержки масштабируемой оценки мы интегрируем MASFT с подходом LLM-as-a-Judge. Мы также исследуем, можно ли легко предотвратить выявленные сбои, предложив два вмешательства: улучшение спецификации ролей агентов и усовершенствование стратегий оркестрации. Наши результаты показывают, что выявленные сбои требуют более сложных решений, что открывает четкий путь для будущих исследований. Мы публикуем наш набор данных и аннотатор на основе LLM в открытом доступе.
English
Despite growing enthusiasm for Multi-Agent Systems (MAS), where multiple LLM agents collaborate to accomplish tasks, their performance gains across popular benchmarks remain minimal compared to single-agent frameworks. This gap highlights the need to analyze the challenges hindering MAS effectiveness. In this paper, we present the first comprehensive study of MAS challenges. We analyze five popular MAS frameworks across over 150 tasks, involving six expert human annotators. We identify 14 unique failure modes and propose a comprehensive taxonomy applicable to various MAS frameworks. This taxonomy emerges iteratively from agreements among three expert annotators per study, achieving a Cohen's Kappa score of 0.88. These fine-grained failure modes are organized into 3 categories, (i) specification and system design failures, (ii) inter-agent misalignment, and (iii) task verification and termination. To support scalable evaluation, we integrate MASFT with LLM-as-a-Judge. We also explore if identified failures could be easily prevented by proposing two interventions: improved specification of agent roles and enhanced orchestration strategies. Our findings reveal that identified failures require more complex solutions, highlighting a clear roadmap for future research. We open-source our dataset and LLM annotator.

Summary

AI-Generated Summary

PDF452March 21, 2025