ChatPaper.aiChatPaper

AgentsNet: Coordinazione e Ragionamento Collaborativo nei Modelli Linguistici Multi-Agente

AgentsNet: Coordination and Collaborative Reasoning in Multi-Agent LLMs

July 11, 2025
Autori: Florian Grötschla, Luis Müller, Jan Tönshoff, Mikhail Galkin, Bryan Perozzi
cs.AI

Abstract

I modelli linguistici su larga scala (LLM) hanno dimostrato potenti capacità di risoluzione dei problemi, in particolare quando organizzati in sistemi multi-agente. Tuttavia, l'avvento di tali sistemi solleva anche diverse questioni sulla capacità di una rete complessa di agenti di auto-organizzarsi e collaborare in modo efficace. Sebbene la misurazione delle prestazioni su benchmark di ragionamento standard indichi quanto bene i sistemi multi-agente possano risolvere compiti di ragionamento, non è chiaro se questi sistemi siano in grado di sfruttare efficacemente la loro topologia. Qui proponiamo AgentsNet, un nuovo benchmark per il ragionamento multi-agente. Traendo ispirazione da problemi classici nei sistemi distribuiti e nella teoria dei grafi, AgentsNet misura la capacità dei sistemi multi-agente di formare collaborativamente strategie per la risoluzione dei problemi, l'auto-organizzazione e la comunicazione efficace data una topologia di rete. Valutiamo una varietà di metodi di base su AgentsNet, inclusi reti omogenee di agenti che devono prima concordare protocolli di base per l'organizzazione e la comunicazione. Rileviamo che alcuni LLM all'avanguardia stanno già dimostrando prestazioni solide per reti di piccole dimensioni, ma iniziano a diminuire una volta che la dimensione della rete aumenta. Mentre i benchmark multi-agente esistenti coprono al massimo 2-5 agenti, AgentsNet è praticamente illimitato in termini di dimensioni e può scalare con le nuove generazioni di LLM. In quanto tale, testiamo anche modelli all'avanguardia in una configurazione con fino a 100 agenti.
English
Large-language models (LLMs) have demonstrated powerful problem-solving capabilities, in particular when organized in multi-agent systems. However, the advent of such systems also raises several questions on the ability of a complex network of agents to effectively self-organize and collaborate. While measuring performance on standard reasoning benchmarks indicates how well multi-agent systems can solve reasoning tasks, it is unclear whether these systems are able to leverage their topology effectively. Here, we propose AgentsNet, a new benchmark for multi-agent reasoning. By drawing inspiration from classical problems in distributed systems and graph theory, AgentsNet measures the ability of multi-agent systems to collaboratively form strategies for problem-solving, self-organization, and effective communication given a network topology. We evaluate a variety of baseline methods on AgentsNet including homogeneous networks of agents which first have to agree on basic protocols for organization and communication. We find that some frontier LLMs are already demonstrating strong performance for small networks but begin to fall off once the size of the network scales. While existing multi-agent benchmarks cover at most 2-5 agents, AgentsNet is practically unlimited in size and can scale with new generations of LLMs. As such, we also probe frontier models in a setup with up to 100 agents.
PDF131July 16, 2025