ChatPaper.aiChatPaper

Apprendre à agir et coopérer pour l'optimisation distribuée de consensus en boîte noire

Learning to Act and Cooperate for Distributed Black-Box Consensus Optimization

May 1, 2026
Auteurs: Zi-Bo Qin, Feng-Feng Wei, Tai-You Chen, Wei-Neng Chen
cs.AI

Résumé

L'optimisation distribuée par consensus en boîte noire est un problème fondamental dans les systèmes multi-agents, où les agents doivent améliorer un objectif global en utilisant uniquement des requêtes d'évaluation locales et une communication limitée avec leurs voisins. Les méthodes existantes reposent largement sur des règles de mise à jour artisanales et des modèles de coopération statiques, qui peinent souvent à équilibrer l'adaptation locale, la coordination globale et l'efficacité de la communication dans des environnements hétérogènes non convexes. Dans cet article, nous franchissons une première étape vers l'auto-conception pilotée par les trajectoires pour l'optimisation distribuée par consensus en boîte noire. Nous repensons d'abord la dynamique collective au niveau de l'agent avec un mécanisme interne adaptatif spécifiquement conçu pour les cadres de consensus décentralisés, améliorant l'équilibre entre l'exploration, la convergence et l'échappement local. Sur la base de cette couche d'exécution adaptative, nous proposons LACMAS (Learning to Act and Cooperate), un cadre piloté par les trajectoires dans lequel les grands modèles de langage fournissent des instructions de haut niveau éparses pour façonner à la fois les comportements d'action internes des agents et les modèles de coopération externes entre agents, à partir des trajectoires d'optimisation historiques. Nous introduisons en outre une stratégie de planification cognitive phasée pour activer différentes formes d'adaptation de manière économe en ressources. Les expériences sur des benchmarks standards d'optimisation distribuée en boîte noire et sur des tâches distribuées réelles montrent que LACMAS améliore constamment la qualité des solutions, l'efficacité de convergence et l'efficacité de la communication par rapport à des méthodes de référence solides, suggérant une voie pratique pour passer d'une coordination distribuée artisanale à des systèmes d'optimisation multi-agents auto-conçus.
English
Distributed blackbox consensus optimization is a fundamental problem in multi-agent systems, where agents must improve a global objective using only local objective queries and limited neighbor communication. Existing methods largely rely on handcrafted update rules and static cooperation patterns, which often struggle to balance local adaptation, global coordination, and communication efficiency in heterogeneous nonconvex environments. In this paper, we take an initial step toward trajectory-driven self-design for distributed black-box consensus optimization. We first redesign the agent-level swarm dynamics with an adaptive internal mechanism tailored to decentralized consensus settings, improving the balance between exploration, convergence, and local escape. Built on top of this adaptive execution layer, we propose Learning to Act and Cooperate (LACMAS), a trajectorydriven framework in which large language models provide sparse highlevel guidance for shaping both agentinternal action behaviors and agentexternal cooperation patterns from historical optimization trajectories. We further introduce a phased cognitive scheduling strategy to activate different forms of adaptation in a resource-aware manner. Experiments on standard distributed black-box benchmarks and real-world distributed tasks show that LAC-MAS consistently improves solution quality, convergence efficiency, and communication efficiency over strong baselines, suggesting a practical route from handcrafted distributed coordination toward self-designing multi-agent optimization systems.
PDF21May 5, 2026