ChatPaper.aiChatPaper

CORAL : Vers une évolution multi-agent autonome pour la découverte ouverte

CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery

April 2, 2026
Auteurs: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI

Résumé

L'évolution basée sur les grands modèles de langage (LLM) est une approche prometteuse pour la découverte ouverte, où le progrès nécessite une recherche soutenue et une accumulation de connaissances. Les méthodes existantes reposent encore largement sur des heuristiques fixes et des règles d'exploration codées en dur, ce qui limite l'autonomie des agents LLM. Nous présentons CORAL, le premier cadre pour l'évolution multi-agent autonome sur des problèmes ouverts. CORAL remplace le contrôle rigide par des agents de longue durée qui explorent, réfléchissent et collaborent via une mémoire persistante partagée, une exécution multi-agent asynchrone et des interventions basées sur un battement cardiaque. Il fournit également des garanties pratiques, incluant des espaces de travail isolés, la séparation des évaluateurs, la gestion des ressources, et la gestion des sessions et de l'état des agents. Évalué sur diverses tâches mathématiques, algorithmiques et d'optimisation de systèmes, CORAL établit de nouveaux résultats de pointe sur 10 tâches, atteignant des taux d'amélioration 3 à 10 fois supérieurs avec beaucoup moins d'évaluations que les bases de référence de recherche évolutive fixe. Sur la tâche d'ingénierie de noyau d'Anthropic, quatre agents co-évolutifs améliorent le score le plus connu de 1363 à 1103 cycles. Des analyses mécanistes montrent en outre comment ces gains découlent de la réutilisation des connaissances et de l'exploration et de la communication multi-agents. Ensemble, ces résultats suggèrent qu'une plus grande autonomie des agents et une évolution multi-agent peuvent améliorer substantiellement la découverte ouverte. Le code est disponible à l'adresse https://github.com/Human-Agent-Society/CORAL.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.
PDF81April 4, 2026