ChatPaper.aiChatPaper

CORAL: オープンエンドな発見のための自律的なマルチエージェント進化に向けて

CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery

April 2, 2026
著者: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI

要旨

大規模言語モデル(LLM)ベースの進化は、継続的な探索と知識蓄積を必要とするオープンエンドな発見において有望なアプローチである。既存手法は依然として固定されたヒューリスティクスやハードコードされた探索ルールに大きく依存しており、LLMエージェントの自律性を制限している。本論文では、オープンエンド問題における自律的なマルチエージェント進化の初のフレームワークであるCORALを提案する。CORALは、共有永続メモリ、非同期マルチエージェント実行、ハートビートベースの介入を通じて探索、内省、協働を行う長寿命エージェントによって、硬直的な制御を置き換える。さらに、分離されたワークスペース、評価機能の分離、リソース管理、エージェントセッション及び健全性管理といった実用的な保護機能を提供する。多様な数学的、アルゴリズム的、システム最適化タスクによる評価において、CORALは10のタスクで新たなstate-of-the-art結果を達成し、固定された進化的探索ベースラインと比較して、タスク全体で評価回数がはるかに少ないにも関わらず、3〜10倍高い改善率を示した。Anthropicのカーネルエンジニアリングタスクでは、共進化する4つのエージェントが既知の最高スコアを1363サイクルから1103サイクルに改善した。機構的分析はさらに、これらの利益が知識の再利用とマルチエージェントによる探索・通信からどのように生じるかを示している。これらの結果は総じて、エージェントの自律性とマルチエージェント進化の強化が、オープンエンドな発見を大幅に改善し得ることを示唆している。コードはhttps://github.com/Human-Agent-Society/CORALで公開されている。
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.
PDF81April 4, 2026