ChatPaper.aiChatPaper

AgentsNet : Coordination et raisonnement collaboratif dans les systèmes multi-agents basés sur des modèles de langage

AgentsNet: Coordination and Collaborative Reasoning in Multi-Agent LLMs

July 11, 2025
papers.authors: Florian Grötschla, Luis Müller, Jan Tönshoff, Mikhail Galkin, Bryan Perozzi
cs.AI

papers.abstract

Les modèles de langage à grande échelle (LLMs) ont démontré des capacités puissantes de résolution de problèmes, en particulier lorsqu'ils sont organisés en systèmes multi-agents. Cependant, l'avènement de tels systèmes soulève également plusieurs questions sur la capacité d'un réseau complexe d'agents à s'auto-organiser et à collaborer efficacement. Bien que la mesure des performances sur des benchmarks de raisonnement standard indique dans quelle mesure les systèmes multi-agents peuvent résoudre des tâches de raisonnement, il n'est pas clair si ces systèmes sont capables d'exploiter efficacement leur topologie. Ici, nous proposons AgentsNet, un nouveau benchmark pour le raisonnement multi-agent. En s'inspirant de problèmes classiques des systèmes distribués et de la théorie des graphes, AgentsNet mesure la capacité des systèmes multi-agents à collaborer pour former des stratégies de résolution de problèmes, d'auto-organisation et de communication efficace, compte tenu d'une topologie de réseau. Nous évaluons une variété de méthodes de base sur AgentsNet, y compris des réseaux homogènes d'agents qui doivent d'abord s'accorder sur des protocoles de base pour l'organisation et la communication. Nous constatons que certains LLMs de pointe montrent déjà de solides performances pour les petits réseaux, mais commencent à décliner une fois que la taille du réseau augmente. Alors que les benchmarks multi-agents existants couvrent au plus 2 à 5 agents, AgentsNet est pratiquement illimité en taille et peut évoluer avec les nouvelles générations de LLMs. Ainsi, nous testons également les modèles de pointe dans une configuration allant jusqu'à 100 agents.
English
Large-language models (LLMs) have demonstrated powerful problem-solving capabilities, in particular when organized in multi-agent systems. However, the advent of such systems also raises several questions on the ability of a complex network of agents to effectively self-organize and collaborate. While measuring performance on standard reasoning benchmarks indicates how well multi-agent systems can solve reasoning tasks, it is unclear whether these systems are able to leverage their topology effectively. Here, we propose AgentsNet, a new benchmark for multi-agent reasoning. By drawing inspiration from classical problems in distributed systems and graph theory, AgentsNet measures the ability of multi-agent systems to collaboratively form strategies for problem-solving, self-organization, and effective communication given a network topology. We evaluate a variety of baseline methods on AgentsNet including homogeneous networks of agents which first have to agree on basic protocols for organization and communication. We find that some frontier LLMs are already demonstrating strong performance for small networks but begin to fall off once the size of the network scales. While existing multi-agent benchmarks cover at most 2-5 agents, AgentsNet is practically unlimited in size and can scale with new generations of LLMs. As such, we also probe frontier models in a setup with up to 100 agents.
PDF61July 16, 2025