Leren Handelen en Samenwerken voor Gedistribueerde Black-Box Consensusoptimalisatie
Learning to Act and Cooperate for Distributed Black-Box Consensus Optimization
May 1, 2026
Auteurs: Zi-Bo Qin, Feng-Feng Wei, Tai-You Chen, Wei-Neng Chen
cs.AI
Samenvatting
Gedistribueerde blackbox-consensusoptimalisatie is een fundamenteel probleem in multi-agent systemen, waarbij agents een globaal doel moeten verbeteren met uitsluitend lokale doelquery's en beperkte communicatie met buren. Bestaande methodes steunen grotendeels op handmatig ontworpen update-regels en statische samenwerkingspatronen, die vaak moeite hebben om lokale aanpassing, globale coördinatie en communicatie-efficiëntie in heterogene niet-convexe omgevingen in evenwicht te brengen. In dit artikel zetten we een eerste stap naar traject-gestuurde zelfontwerp voor gedistribueerde blackbox-consensusoptimalisatie. We herontwerpen eerst de dynamiek op agentniveau met een adaptief intern mechanisme dat is toegesneden op gedecentraliseerde consensusomgevingen, wat de balans tussen exploratie, convergentie en ontsnapping aan lokale optima verbetert. Gebouwd bovenop deze adaptieve uitvoeringslaag, stellen we Learning to Act and Cooperate (LACMAS) voor, een traject-gestuurd raamwerk waarin grote taalmodellen sporadische hoogwaardige richtlijnen bieden voor het vormen van zowel agent-interne actiegedragingen als agent-externe samenwerkingspatronen, gebaseerd op historische optimalisatietrajecten. We introduceren verder een gefaseerde cognitieve planningsstrategie om verschillende vormen van aanpassing op een resource-bewuste manier te activeren. Experimenten op standaard gedistribueerde blackbox benchmarks en real-world gedistribueerde taken tonen aan dat LACMAS consistent de oplossingskwaliteit, convergentie-efficiëntie en communicatie-efficiëntie verbetert ten opzichte van sterke baseline-methodes, wat een praktische route suggereert van handmatig ontworpen gedistribueerde coördinatie naar zelfontwerpende multi-agent optimalisatiesystemen.
English
Distributed blackbox consensus optimization is a fundamental problem in multi-agent systems, where agents must improve a global objective using only local objective queries and limited neighbor communication. Existing methods largely rely on handcrafted update rules and static cooperation patterns, which often struggle to balance local adaptation, global coordination, and communication efficiency in heterogeneous nonconvex environments. In this paper, we take an initial step toward trajectory-driven self-design for distributed black-box consensus optimization. We first redesign the agent-level swarm dynamics with an adaptive internal mechanism tailored to decentralized consensus settings, improving the balance between exploration, convergence, and local escape. Built on top of this adaptive execution layer, we propose Learning to Act and Cooperate (LACMAS), a trajectorydriven framework in which large language models provide sparse highlevel guidance for shaping both agentinternal action behaviors and agentexternal cooperation patterns from historical optimization trajectories. We further introduce a phased cognitive scheduling strategy to activate different forms of adaptation in a resource-aware manner. Experiments on standard distributed black-box benchmarks and real-world distributed tasks show that LAC-MAS consistently improves solution quality, convergence efficiency, and communication efficiency over strong baselines, suggesting a practical route from handcrafted distributed coordination toward self-designing multi-agent optimization systems.