ChatPaper.aiChatPaper

Lernen zu agieren und zu kooperieren für verteilte Black-Box-Konsensoptimierung

Learning to Act and Cooperate for Distributed Black-Box Consensus Optimization

May 1, 2026
Autoren: Zi-Bo Qin, Feng-Feng Wei, Tai-You Chen, Wei-Neng Chen
cs.AI

Zusammenfassung

Verteilte Blackbox-Konsensoptimierung ist ein grundlegendes Problem in Multi-Agenten-Systemen, bei dem Agenten ein globales Ziel nur unter Verwendung lokaler Zielfunktionsabfragen und begrenzter Nachbarkommunikation verbessern müssen. Bestehende Methoden stützen sich weitgehend auf manuell erstellte Aktualisierungsregeln und statische Kooperationsmuster, die in heterogenen, nichtkonvexen Umgebungen oft Schwierigkeiten haben, lokale Anpassung, globale Koordination und Kommunikationseffizienz in Einklang zu bringen. In diesem Artikel unternehmen wir einen ersten Schritt in Richtung einer trajektoriengesteuerten Selbstkonfiguration für die verteilte Blackbox-Konsensoptimierung. Wir gestalten zunächst die Schwarmdynamik auf Agentenebene mit einem adaptiven internen Mechanismus neu, der auf dezentrale Konsensszenarien zugeschnitten ist, und verbessern so die Balance zwischen Exploration, Konvergenz und lokalem Entkommen. Auf dieser adaptiven Ausführungsebene aufbauend schlagen wir Learning to Act and Cooperate (LACMAS) vor, ein trajektoriengesteuertes Framework, in dem große Sprachmodelle spärliche, hochrangige Anleitungen bereitstellen, um sowohl agenteninterne Aktionsverhalten als auch agentenexterne Kooperationsmuster aus historischen Optimierungstrajektorien zu formen. Wir führen weiterhin eine phasengesteuerte kognitive Planungsstrategie ein, um verschiedene Formen der Anpassung ressourcenbewusst zu aktivieren. Experimente mit standardisierten verteilten Blackbox-Benchmarks und realen verteilten Aufgaben zeigen, dass LACMAS durchgängig die Lösungsqualität, die Konvergenzeffizienz und die Kommunikationseffizienz gegenüber starken Baseline-Methoden verbessert. Dies deutet auf einen praktischen Weg von handgefertigter verteilter Koordination hin zu selbstkonfigurierenden Multi-Agenten-Optimierungssystemen hin.
English
Distributed blackbox consensus optimization is a fundamental problem in multi-agent systems, where agents must improve a global objective using only local objective queries and limited neighbor communication. Existing methods largely rely on handcrafted update rules and static cooperation patterns, which often struggle to balance local adaptation, global coordination, and communication efficiency in heterogeneous nonconvex environments. In this paper, we take an initial step toward trajectory-driven self-design for distributed black-box consensus optimization. We first redesign the agent-level swarm dynamics with an adaptive internal mechanism tailored to decentralized consensus settings, improving the balance between exploration, convergence, and local escape. Built on top of this adaptive execution layer, we propose Learning to Act and Cooperate (LACMAS), a trajectorydriven framework in which large language models provide sparse highlevel guidance for shaping both agentinternal action behaviors and agentexternal cooperation patterns from historical optimization trajectories. We further introduce a phased cognitive scheduling strategy to activate different forms of adaptation in a resource-aware manner. Experiments on standard distributed black-box benchmarks and real-world distributed tasks show that LAC-MAS consistently improves solution quality, convergence efficiency, and communication efficiency over strong baselines, suggesting a practical route from handcrafted distributed coordination toward self-designing multi-agent optimization systems.
PDF21May 5, 2026