CORAL: Rumo à Evolução Autônoma de Múltiplos Agentes para Descoberta de Largo Espectro
CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery
April 2, 2026
Autores: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI
Resumo
A evolução baseada em modelos de linguagem de grande escala (LLM) é uma abordagem promissora para a descoberta de mente aberta, na qual o progresso requer uma busca sustentada e acumulação de conhecimento. Os métodos existentes ainda dependem fortemente de heurísticas fixas e regras de exploração codificadas, o que limita a autonomia dos agentes de LLM. Apresentamos o CORAL, o primeiro framework para evolução multiagente autónoma em problemas de mente aberta. O CORAL substitui o controlo rígido por agentes de longa duração que exploram, refletem e colaboram através de memória persistente partilhada, execução multiagente assíncrona e intervenções baseadas em batimentos cardíacos. Também fornece salvaguardas práticas, incluindo espaços de trabalho isolados, separação de avaliadores, gestão de recursos e gestão de sessões e saúde dos agentes. Avaliado em diversas tarefas matemáticas, algorítmicas e de otimização de sistemas, o CORAL estabelece novos resultados state-of-the-art em 10 tarefas, alcançando taxas de melhoria 3 a 10 vezes superiores com muito menos avaliações do que as linhas de base de busca evolutiva fixa em várias tarefas. Na tarefa de engenharia de *kernel* da Anthropic, quatro agentes em co-evolução melhoraram a melhor pontuação conhecida de 1363 para 1103 ciclos. Análises mecanicistas mostram ainda como esses ganhos surgem da reutilização de conhecimento e da exploração e comunicação multiagente. Em conjunto, estes resultados sugerem que uma maior autonomia do agente e a evolução multiagente podem melhorar substancialmente a descoberta de mente aberta. O código está disponível em https://github.com/Human-Agent-Society/CORAL.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.