MultiAgentBench: Valutazione della Collaborazione e Competizione tra Agenti LLMMultiAgentBench: Evaluating the Collaboration and Competition of LLM
agents
I Large Language Models (LLM) hanno dimostrato capacità notevoli come agenti autonomi, tuttavia i benchmark esistenti si concentrano su compiti a singolo agente o sono limitati a domini ristretti, non riuscendo a catturare le dinamiche di coordinamento e competizione multi-agente. In questo articolo, introduciamo MultiAgentBench, un benchmark completo progettato per valutare sistemi multi-agente basati su LLM in scenari interattivi e diversificati. Il nostro framework misura non solo il completamento dei compiti, ma anche la qualità della collaborazione e della competizione utilizzando nuovi indicatori chiave di prestazione basati su milestone. Inoltre, valutiamo vari protocolli di coordinamento (includendo topologie a stella, catena, albero e grafo) e strategie innovative come la discussione di gruppo e la pianificazione cognitiva. In particolare, gpt-4o-mini raggiunge il punteggio medio più alto nei compiti, la struttura a grafo si dimostra la migliore tra i protocolli di coordinamento nello scenario di ricerca, e la pianificazione cognitiva migliora i tassi di raggiungimento delle milestone del 3%. Codice e dataset sono disponibili pubblicamente all'indirizzo https://github.com/MultiagentBench/MARBLE.