ChatPaper.aiChatPaper

Обучение действиям и кооперации для распределенной чернобоксной оптимизации консенсуса

Learning to Act and Cooperate for Distributed Black-Box Consensus Optimization

May 1, 2026
Авторы: Zi-Bo Qin, Feng-Feng Wei, Tai-You Chen, Wei-Neng Chen
cs.AI

Аннотация

Распределенная оптимизация консенсуса с черным ящиком является фундаментальной проблемой в мультиагентных системах, где агенты должны улучшать глобальную целевую функцию, используя только локальные запросы к целевой функции и ограниченную коммуникацию с соседями. Существующие методы в значительной степени опираются на ручные правила обновления и статические паттерны кооперации, которые часто не способны сбалансировать локальную адаптацию, глобальную координацию и эффективность коммуникации в гетерогенных невыпуклых средах. В данной статье мы делаем первый шаг к самоорганизации на основе траекторий для распределенной оптимизации консенсуса с черным ящиком. Мы сначала перепроектируем динамику роя на уровне агентов с адаптивным внутренним механизмом, настроенным на децентрализованные условия консенсуса, улучшая баланс между исследованием, сходимостью и локальным выходом из оптимума. На основе этого адаптивного исполнительного уровня мы предлагаем Learning to Act and Cooperate (LACMAS) — фреймворк, управляемый траекториями, в котором большие языковые модели предоставляют разреженные рекомендации высокого уровня для формирования как внутренних поведенческих действий агентов, так и внешних паттернов кооперации на основе исторических траекторий оптимизации. Мы также вводим поэтапную стратегию когнитивного планирования для активации различных форм адаптации с учетом ресурсов. Эксперименты на стандартных распределенных бенчмарках с черным ящиком и реальных распределенных задачах показывают, что LACMAS последовательно улучшает качество решений, эффективность сходимости и эффективность коммуникации по сравнению с сильными базовыми методами, указывая практический путь от ручной распределенной координации к самоорганизующимся мультиагентным оптимизационным системам.
English
Distributed blackbox consensus optimization is a fundamental problem in multi-agent systems, where agents must improve a global objective using only local objective queries and limited neighbor communication. Existing methods largely rely on handcrafted update rules and static cooperation patterns, which often struggle to balance local adaptation, global coordination, and communication efficiency in heterogeneous nonconvex environments. In this paper, we take an initial step toward trajectory-driven self-design for distributed black-box consensus optimization. We first redesign the agent-level swarm dynamics with an adaptive internal mechanism tailored to decentralized consensus settings, improving the balance between exploration, convergence, and local escape. Built on top of this adaptive execution layer, we propose Learning to Act and Cooperate (LACMAS), a trajectorydriven framework in which large language models provide sparse highlevel guidance for shaping both agentinternal action behaviors and agentexternal cooperation patterns from historical optimization trajectories. We further introduce a phased cognitive scheduling strategy to activate different forms of adaptation in a resource-aware manner. Experiments on standard distributed black-box benchmarks and real-world distributed tasks show that LAC-MAS consistently improves solution quality, convergence efficiency, and communication efficiency over strong baselines, suggesting a practical route from handcrafted distributed coordination toward self-designing multi-agent optimization systems.
PDF21May 5, 2026