AgentConductor: Topologie-evolutie voor multi-agent competitieniveau codegeneratie
AgentConductor: Topology Evolution for Multi-Agent Competition-Level Code Generation
February 19, 2026
Auteurs: Siyu Wang, Ruotian Lu, Zhihao Yang, Yuchao Wang, Yanzhou Zhang, Lei Xu, Qimin Xu, Guojun Yin, Cailian Chen, Xinping Guan
cs.AI
Samenvatting
Door grote-taalmodellen (LLM) aangedreven multi-agent systemen (MAS) coördineren gespecialiseerde agenten via vooraf gedefinieerde interactietopologieën en hebben hun waarde bewezen voor complexe taken, zoals competitieniveau codegeneratie. Recente studies tonen aan dat zorgvuldig ontworpen multi-agent werkstromen en communicatiegrafen de prestaties van codegeneratie aanzienlijk kunnen verbeteren door gebruik te maken van collaboratieve redenering. Echter, bestaande methoden passen noch de topologiedichtheid aan aan de taakmoeilijkheid, noch verfijnen ze de topologie iteratief binnen een instantie met behulp van uitvoeringsfeedback, wat leidt tot redundante communicatie en prestatieknelpunten. Om deze problemen aan te pakken, stellen wij AgentConductor voor: een door reinforcement learning geoptimaliseerd MAS met een op LLM gebaseerde orchestrator-agent als kern, dat end-to-end feedback-gestuurde, dynamische generatie van interactietopologieën mogelijk maakt. Voor elke query leidt AgentConductor agentrollen en taakmoeilijkheid af, en construeert vervolgens een taakaangepaste, dichtheidsbewuste gelaagde gerichte acyclische graaf (DAG) topologie, ondersteund door twee belangrijke innovaties. Ten eerste ontwerpen we een nieuwe topologische dichtheidsfunctie die communicatiebewuste wiskundige karakteriseringen van multi-agent interacties vastlegt. Ten tweede passen we intervalpartitie op basis van moeilijkheidsgraad toe om overmatige snoei te voorkomen voor precieze meting van de bovengrens van de topologische dichtheid per moeilijkheidsniveau en fijnmazigere controle. Empirisch gezien behaalt AgentConductor state-of-the-art nauwkeurigheid op drie competitieniveau- en twee fundamentele code-datasets, waarbij het de sterkste baseline met tot 14,6% verslaat in pass@1 nauwkeurigheid, 13% in dichtheidsreductie en 68% in tokenkostenreductie.
English
Large language model(LLM)-driven multi-agent systems(MAS) coordinate specialized agents through predefined interaction topologies and have shown promise for complex tasks such as competition-level code generation. Recent studies demonstrate that carefully designed multi-agent workflows and communication graphs can significantly improve code generation performance by leveraging collaborative reasoning. However, existing methods neither adapt topology density to task difficulty nor iteratively refine the topology within an instance using execution feedback, which leads to redundant communication and performance bottlenecks. To address these issues, we propose AgentConductor: a reinforcement learning-optimized MAS with an LLM-based orchestrator agent as its core, which enables end-to-end feedback-driven dynamic generation of interaction topologies. For each query, AgentConductor infers agent roles and task difficulty, then constructs a task-adapted, density-aware layered directed acyclic graph (DAG) topology, underpinned by two key innovations. First, we design a novel topological density function that captures communication-aware mathematical characterizations of multi-agent interactions. Second, we adopt difficulty interval partitioning to avoid excessive pruning for precise topological density upper bound measurement per difficulty level and finer-grained control. Empirically, across three competition-level and two foundational code datasets, AgentConductor achieves state-of-the-art accuracy, outperforming the strongest baseline by up to 14.6% in pass@1 accuracy, 13% in density reduction, and 68% in token cost reduction.