CORAL: К автономной эволюции мультиагентных систем для открытых научных открытий
CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery
April 2, 2026
Авторы: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI
Аннотация
Эволюция на основе больших языковых моделей (LLM) является перспективным подходом для открытых исследований, где прогресс требует устойчивого поиска и накопления знаний. Существующие методы по-прежнему в значительной степени опираются на фиксированные эвристики и жесткие правила исследования, что ограничивает автономию LLM-агентов. Мы представляем CORAL — первую структуру для автономной эволюции множества агентов в условиях открытых проблем. CORAL заменяет жесткое управление долгоживущими агентами, которые исследуют, анализируют и сотрудничают через общую постоянную память, асинхронное выполнение множества агентов и вмешательства на основе «сердцебиения». Она также предоставляет практические механизмы безопасности, включая изолированные рабочие пространства, разделение оценщиков, управление ресурсами, а также управление сеансами и состоянием агентов. Протестированная на разнообразных математических, алгоритмических задачах и задачах оптимизации систем, CORAL устанавливает новые рекордные результаты по 10 задачам, достигая в 3–10 раз более высоких темпов улучшения при значительно меньшем количестве оценок по сравнению с базовыми методами фиксированного эволюционного поиска. В задаче по разработке ядра от Anthropic четыре коэволюционирующих агента улучшили наилучший известный результат с 1363 до 1103 циклов. Механистический анализ дополнительно показывает, как эти достижения возникают благодаря повторному использованию знаний, а также исследованию и коммуникации между множеством агентов. В совокупности эти результаты свидетельствуют о том, что большая автономия агентов и эволюция множества агентов могут существенно улучшить открытые исследования. Код доступен по адресу https://github.com/Human-Agent-Society/CORAL.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.