ChatPaper.aiChatPaper

CORAL: Op Weg Naar Autonome Multi-Agent Evolutie voor Open-Einde Ontdekking

CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery

April 2, 2026
Auteurs: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI

Samenvatting

Evolutionaire aanpak op basis van grote taalmodel(len) (LLM's) is een veelbelovende methode voor open-ended discovery, waarbij vooruitgang blijvende zoektochten en kennisaccumulatie vereist. Bestaande methoden vertrouwen echter nog sterk op vaste heuristieken en hardgecodeerde verkenningregels, wat de autonomie van LLM-agenten beperkt. Wij presenteren CORAL, het eerste raamwerk voor autonome multi-agent evolutie bij open-ended problemen. CORAL vervangt rigide controle door langlopende agenten die verkennen, reflecteren en samenwerken via gedeeld persistent geheugen, asynchrone multi-agent uitvoering en interventies op basis van hartslagen. Het biedt ook praktische veiligheidsmaatregelen, waaronder geïsoleerde werkruimten, scheiding van evaluatoren, resourcebeheer, en beheer van agentsessies en -gezondheid. Bij evaluatie op uiteenlopende wiskundige, algoritmische en systeemoptimalisatietaken behaalt CORAL nieuwe state-of-the-art resultaten op 10 taken, met 3-10 keer hogere verbeteringspercentages en aanzienlijk minder evaluaties dan vaste evolutionaire zoekbaselines. Op de kernel engineering-taak van Anthropic verbeterden vier co-evoluerende agenten de beste bekende score van 1363 naar 1103 cycli. Mechanistische analyses tonen verder aan hoe deze winsten voortkomen uit hergebruik van kennis en multi-agent verkenning en communicatie. Gezamenlijk suggereren deze resultaten dat grotere agentautonomie en multi-agent evolutie open-ended discovery aanzienlijk kunnen verbeteren. Code is beschikbaar op https://github.com/Human-Agent-Society/CORAL.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.
PDF81April 4, 2026