ChatPaper.aiChatPaper

AgentsNet: Coordenação e Raciocínio Colaborativo em LLMs Multiagente

AgentsNet: Coordination and Collaborative Reasoning in Multi-Agent LLMs

July 11, 2025
Autores: Florian Grötschla, Luis Müller, Jan Tönshoff, Mikhail Galkin, Bryan Perozzi
cs.AI

Resumo

Modelos de linguagem de grande escala (LLMs) têm demonstrado capacidades poderosas de resolução de problemas, especialmente quando organizados em sistemas multiagentes. No entanto, o surgimento desses sistemas também levanta várias questões sobre a capacidade de uma rede complexa de agentes de se auto-organizar e colaborar de forma eficaz. Embora a medição do desempenho em benchmarks padrão de raciocínio indique quão bem os sistemas multiagentes podem resolver tarefas de raciocínio, não está claro se esses sistemas são capazes de aproveitar sua topologia de forma eficiente. Aqui, propomos o AgentsNet, um novo benchmark para raciocínio multiagente. Ao se inspirar em problemas clássicos de sistemas distribuídos e teoria dos grafos, o AgentsNet mede a capacidade dos sistemas multiagentes de formar colaborativamente estratégias para resolução de problemas, auto-organização e comunicação eficaz, dada uma topologia de rede. Avaliamos uma variedade de métodos de linha de base no AgentsNet, incluindo redes homogêneas de agentes que primeiro precisam concordar com protocolos básicos para organização e comunicação. Descobrimos que alguns LLMs de ponta já estão demonstrando um desempenho forte para redes pequenas, mas começam a decair quando o tamanho da rede escala. Enquanto os benchmarks multiagentes existentes cobrem no máximo 2-5 agentes, o AgentsNet é praticamente ilimitado em tamanho e pode escalar com as novas gerações de LLMs. Como tal, também exploramos modelos de ponta em uma configuração com até 100 agentes.
English
Large-language models (LLMs) have demonstrated powerful problem-solving capabilities, in particular when organized in multi-agent systems. However, the advent of such systems also raises several questions on the ability of a complex network of agents to effectively self-organize and collaborate. While measuring performance on standard reasoning benchmarks indicates how well multi-agent systems can solve reasoning tasks, it is unclear whether these systems are able to leverage their topology effectively. Here, we propose AgentsNet, a new benchmark for multi-agent reasoning. By drawing inspiration from classical problems in distributed systems and graph theory, AgentsNet measures the ability of multi-agent systems to collaboratively form strategies for problem-solving, self-organization, and effective communication given a network topology. We evaluate a variety of baseline methods on AgentsNet including homogeneous networks of agents which first have to agree on basic protocols for organization and communication. We find that some frontier LLMs are already demonstrating strong performance for small networks but begin to fall off once the size of the network scales. While existing multi-agent benchmarks cover at most 2-5 agents, AgentsNet is practically unlimited in size and can scale with new generations of LLMs. As such, we also probe frontier models in a setup with up to 100 agents.
PDF131July 16, 2025