ChatPaper.aiChatPaper

CORAL: Hacia una Evolución Autónoma de Múltiples Agentes para el Descubrimiento Abierto

CORAL: Towards Autonomous Multi-Agent Evolution for Open-Ended Discovery

April 2, 2026
Autores: Ao Qu, Han Zheng, Zijian Zhou, Yihao Yan, Yihong Tang, Shao Yong Ong, Fenglu Hong, Kaichen Zhou, Chonghe Jiang, Minwei Kong, Jiacheng Zhu, Xuan Jiang, Sirui Li, Cathy Wu, Bryan Kian Hsiang Low, Jinhua Zhao, Paul Pu Liang
cs.AI

Resumen

La evolución basada en modelos de lenguaje grande (LLM) es un enfoque prometedor para el descubrimiento de búsqueda abierta, donde el progreso requiere una búsqueda sostenida y una acumulación de conocimiento. Los métodos existentes aún dependen en gran medida de heurísticas fijas y reglas de exploración codificadas de forma rígida, lo que limita la autonomía de los agentes de LLM. Presentamos CORAL, el primer marco para la evolución autónoma de múltiples agentes en problemas de búsqueda abierta. CORAL reemplaza el control rígido con agentes de larga duración que exploran, reflexionan y colaboran mediante memoria persistente compartida, ejecución asíncrona de múltiples agentes e intervenciones basadas en latidos del sistema. También proporciona salvaguardas prácticas, que incluyen espacios de trabajo aislados, separación de evaluadores, gestión de recursos, y gestión de sesiones y estado de los agentes. Evaluado en diversas tareas matemáticas, algorítmicas y de optimización de sistemas, CORAL establece nuevos resultados de vanguardia en 10 tareas, logrando tasas de mejora entre 3 y 10 veces superiores con muchas menos evaluaciones que los métodos de búsqueda evolutiva fija de referencia en todas las tareas. En la tarea de ingeniería de *kernels* de Anthropic, cuatro agentes que co-evolucionan mejoran la puntuación más conocida de 1363 a 1103 ciclos. Los análisis mecanicistas muestran además cómo estas ganancias surgen de la reutilización de conocimiento y de la exploración y comunicación multiagente. En conjunto, estos resultados sugieren que una mayor autonomía de los agentes y la evolución multiagente pueden mejorar sustancialmente el descubrimiento de búsqueda abierta. El código está disponible en https://github.com/Human-Agent-Society/CORAL.
English
Large language model (LLM)-based evolution is a promising approach for open-ended discovery, where progress requires sustained search and knowledge accumulation. Existing methods still rely heavily on fixed heuristics and hard-coded exploration rules, which limit the autonomy of LLM agents. We present CORAL, the first framework for autonomous multi-agent evolution on open-ended problems. CORAL replaces rigid control with long-running agents that explore, reflect, and collaborate through shared persistent memory, asynchronous multi-agent execution, and heartbeat-based interventions. It also provides practical safeguards, including isolated workspaces, evaluator separation, resource management, and agent session and health management. Evaluated on diverse mathematical, algorithmic, and systems optimization tasks, CORAL sets new state-of-the-art results on 10 tasks, achieving 3-10 times higher improvement rates with far fewer evaluations than fixed evolutionary search baselines across tasks. On Anthropic's kernel engineering task, four co-evolving agents improve the best known score from 1363 to 1103 cycles. Mechanistic analyses further show how these gains arise from knowledge reuse and multi-agent exploration and communication. Together, these results suggest that greater agent autonomy and multi-agent evolution can substantially improve open-ended discovery. Code is available at https://github.com/Human-Agent-Society/CORAL.
PDF81April 4, 2026