CORAL: Auf dem Weg zur autonomen Evolution multi-agentenbasierter Systeme für offene Entdeckungsprozesse
CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery
April 2, 2026
Autoren: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI
Zusammenfassung
Evolution auf Basis großer Sprachmodelle (Large Language Models, LLM) ist ein vielversprechender Ansatz für offene Entdeckungsprozesse, bei denen Fortschritt eine kontinuierliche Suche und Wissensakkumulation erfordert. Bestehende Methoden stützen sich jedoch noch stark auf feste Heuristiken und hartkodierte Explorationsregeln, was die Autonomie von LLM-Agenten einschränkt. Wir stellen CORAL vor, den ersten Rahmen für autonome Multi-Agenten-Evolution bei offenen Problemen. CORAL ersetzt starre Steuerung durch langlebige Agenten, die durch gemeinsamen persistenten Speicher, asynchrone Multi-Agenten-Ausführung und herzfrequenzbasierte Interventionen erkunden, reflektieren und zusammenarbeiten. Es bietet zudem praktische Sicherheitsvorkehrungen, darunter isolierte Arbeitsbereiche, Trennung von Bewertungseinheiten, Ressourcenmanagement sowie Agentensitzungs- und Gesundheitsmanagement. In Evaluierungen mit verschiedenen mathematischen, algorithmischen und Systemoptimierungsaufgaben erzielt CORAL neue state-of-the-art Ergebnisse bei 10 Aufgaben und erreicht 3-10 mal höhere Verbesserungsraten mit deutlich weniger Bewertungen als feste evolutionäre Suchbaselines über alle Aufgaben hinweg. Bei der Kernel-Engineering-Aufgabe von Anthropic verbessern vier ko-evolvierende Agenten die bisher beste bekannte Punktzahl von 1363 auf 1103 Zyklen. Mechanistische Analysen zeigen weiterhin, wie diese Gewinne aus Wiederverwendung von Wissen sowie Multi-Agenten-Exploration und -Kommunikation entstehen. Zusammengenommen deuten diese Ergebnisse darauf hin, dass größere Agentenautonomie und Multi-Agenten-Evolution die offene Entdeckung substanziell verbessern können. Code ist verfügbar unter https://github.com/Human-Agent-Society/CORAL.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.