CORAL: 개방형 발견을 위한 자율적 다중 에이전트 진화 방향
CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery
April 2, 2026
저자: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI
초록
대규모 언어 모델(LLM) 기반 진화는 지속적인 탐색과 지식 축적이 필요한 개방형 발견에 유망한 접근법입니다. 기존 방법론은 여전히 고정 휴리스틱과 하드코딩된 탐색 규칙에 크게 의존하여 LLM 에이전트의 자율성을 제한합니다. 본 논문에서는 개방형 문제에 대한 최초의 자율적 다중 에이전트 진화 프레임워크인 CORAL을 제시합니다. CORAL은 경직된 제어를 공유 지속 메모리, 비동기 다중 에이전트 실행, 하트비트 기반 개입을 통해 탐색, 성찰, 협업하는 장기 실행 에이전트로 대체합니다. 또한 격리된 작업 공간, 평가자 분리, 자원 관리, 에이전트 세션 및 상태 관리 등의 실용적 안전장치를 제공합니다. 다양한 수학, 알고리즘, 시스템 최적화 과제에서 평가된 CORAL은 10개 과제에서 새로운 최첨단 성과를 기록했으며, 고정 진화 탐색 기준선 대비 훨씬 적은 평가 횟수로 3~10배 높은 개선률을 달성했습니다. Anthropic의 커널 엔지니어링 과제에서는 공동 진화하는 4개의 에이전트가 기존 최고 점수인 1363 사이클에서 1103 사이클로 향상시켰습니다. 기계론적 분석은 이러한 성과가 지식 재사용과 다중 에이전트 탐색 및 의사소통에서 비롯됨을 추가로 보여줍니다. 이러한 결과는 함께 더 큰 에이전트 자율성과 다중 에이전트 진화가 개방형 발견을 크게 개선할 수 있음을 시사합니다. 코드는 https://github.com/Human-Agent-Society/CORAL에서 이용 가능합니다.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.