ChatPaper.aiChatPaper

AgentConductor: Topologie-Evolution für Multi-Agenten-Competition-Level-Codegenerierung

AgentConductor: Topology Evolution for Multi-Agent Competition-Level Code Generation

February 19, 2026
Autoren: Siyu Wang, Ruotian Lu, Zhihao Yang, Yuchao Wang, Yanzhou Zhang, Lei Xu, Qimin Xu, Guojun Yin, Cailian Chen, Xinping Guan
cs.AI

Zusammenfassung

Von großen Sprachmodellen (LLM) gesteuerte Multi-Agenten-Systeme (MAS) koordinieren spezialisierte Agenten über vordefinierte Interaktionstopologien und haben sich für komplexe Aufgaben wie wettbewerbsfähige Code-Generierung als vielversprechend erwiesen. Jüngste Studien zeigen, dass sorgfältig gestaltete Multi-Agenten-Workflows und Kommunikationsgraphen die Code-Generierungsleistung durch kollaborative Reasoning-Prozesse erheblich verbessern können. Bestehende Methoden passen jedoch weder die Topologiedichte an die Aufgabenschwierigkeit an, noch verfeinern sie die Topologie innerhalb einer Instanz iterativ unter Verwendung von Ausführungsfeedback, was zu redundanter Kommunikation und Leistungsengpässen führt. Um diese Probleme zu adressieren, schlagen wir AgentConductor vor: ein reinforcement-lern-optimiertes MAS mit einem LLM-basierten Orchestrator-Agenten als Kernkomponente, das eine end-to-end-feedbackgesteuerte, dynamische Generierung von Interaktionstopologien ermöglicht. Für jede Anfrage leitet AgentConductor Agentenrollen und Aufgabenschwierigkeit ab und konstruiert darauf aufbauend eine aufgabenangepasste, dichtebewusste geschichtete gerichtete azyklische Graph (DAG)-Topologie, die auf zwei Schlüsselinnovationen basiert. Erstens entwerfen wir eine neuartige topologische Dichtefunktion, die kommunikationsbewusste mathematische Charakterisierungen von Multi-Agenten-Interaktionen erfasst. Zweitens setzen wir Schwierigkeitsintervallpartitionierung ein, um übermäßiges Beschneiden für präzise Messungen der oberen Dichtegrenze pro Schwierigkeitsgrad und eine feinkörnigere Steuerung zu vermeiden. Empirisch erzielt AgentConductor auf drei wettbewerbsorientierten und zwei grundlegenden Code-Datensätzen state-of-the-art Genauigkeit und übertrifft die stärkste Baseline um bis zu 14,6 % in der Pass@1-Genauigkeit, 13 % bei der Dichtereduktion und 68 % bei der Token-Kostenreduzierung.
English
Large language model(LLM)-driven multi-agent systems(MAS) coordinate specialized agents through predefined interaction topologies and have shown promise for complex tasks such as competition-level code generation. Recent studies demonstrate that carefully designed multi-agent workflows and communication graphs can significantly improve code generation performance by leveraging collaborative reasoning. However, existing methods neither adapt topology density to task difficulty nor iteratively refine the topology within an instance using execution feedback, which leads to redundant communication and performance bottlenecks. To address these issues, we propose AgentConductor: a reinforcement learning-optimized MAS with an LLM-based orchestrator agent as its core, which enables end-to-end feedback-driven dynamic generation of interaction topologies. For each query, AgentConductor infers agent roles and task difficulty, then constructs a task-adapted, density-aware layered directed acyclic graph (DAG) topology, underpinned by two key innovations. First, we design a novel topological density function that captures communication-aware mathematical characterizations of multi-agent interactions. Second, we adopt difficulty interval partitioning to avoid excessive pruning for precise topological density upper bound measurement per difficulty level and finer-grained control. Empirically, across three competition-level and two foundational code datasets, AgentConductor achieves state-of-the-art accuracy, outperforming the strongest baseline by up to 14.6% in pass@1 accuracy, 13% in density reduction, and 68% in token cost reduction.
PDF42May 8, 2026