Aprendiendo a Actuar y Cooperar para la Optimización Distribuida de Consenso de Caja Negra
Learning to Act and Cooperate for Distributed Black-Box Consensus Optimization
May 1, 2026
Autores: Zi-Bo Qin, Feng-Feng Wei, Tai-You Chen, Wei-Neng Chen
cs.AI
Resumen
La optimización de consenso de caja negra distribuida es un problema fundamental en los sistemas multiagente, donde los agentes deben mejorar un objetivo global utilizando únicamente consultas locales del objetivo y comunicación limitada con vecinos. Los métodos existentes se basan en gran medida en reglas de actualidad manuales y patrones de cooperación estáticos, que a menudo luchan por equilibrar la adaptación local, la coordinación global y la eficiencia comunicativa en entornos no convexos heterogéneos. En este artículo, damos un paso inicial hacia el autodiseño impulsado por trayectorias para la optimización de consenso de caja negra distribuida. Primero rediseñamos la dinámica de enjambre a nivel de agente con un mecanismo interno adaptativo adaptado a entornos de consenso descentralizados, mejorando el equilibrio entre exploración, convergencia y escape local. Sobre esta capa de ejecución adaptativa, proponemos Aprender a Actuar y Cooperar (LACMAS), un marco impulsado por trayectorias donde los modelos de lenguaje grande proporcionan guía de alto nivel dispersa para moldear tanto los comportamientos de acción internos del agente como los patrones de cooperación externos del agente a partir de trayectorias históricas de optimización. Además, introducimos una estrategia de planificación cognitiva por fases para activar diferentes formas de adaptación de manera consciente de los recursos. Los experimentos en benchmarks estándar de caja negra distribuida y tareas distribuidas del mundo real muestran que LACMAS mejora consistentemente la calidad de la solución, la eficiencia de convergencia y la eficiencia comunicativa sobre líneas base sólidas, sugiriendo una ruta práctica desde la coordinación distribuida manual hacia sistemas de optimización multiagente que se autodiseñan.
English
Distributed blackbox consensus optimization is a fundamental problem in multi-agent systems, where agents must improve a global objective using only local objective queries and limited neighbor communication. Existing methods largely rely on handcrafted update rules and static cooperation patterns, which often struggle to balance local adaptation, global coordination, and communication efficiency in heterogeneous nonconvex environments. In this paper, we take an initial step toward trajectory-driven self-design for distributed black-box consensus optimization. We first redesign the agent-level swarm dynamics with an adaptive internal mechanism tailored to decentralized consensus settings, improving the balance between exploration, convergence, and local escape. Built on top of this adaptive execution layer, we propose Learning to Act and Cooperate (LACMAS), a trajectorydriven framework in which large language models provide sparse highlevel guidance for shaping both agentinternal action behaviors and agentexternal cooperation patterns from historical optimization trajectories. We further introduce a phased cognitive scheduling strategy to activate different forms of adaptation in a resource-aware manner. Experiments on standard distributed black-box benchmarks and real-world distributed tasks show that LAC-MAS consistently improves solution quality, convergence efficiency, and communication efficiency over strong baselines, suggesting a practical route from handcrafted distributed coordination toward self-designing multi-agent optimization systems.