ChatPaper.aiChatPaper

Machine de Darwin-Gödel : Évolution ouverte d'agents auto-améliorants

Darwin Godel Machine: Open-Ended Evolution of Self-Improving Agents

May 29, 2025
Auteurs: Jenny Zhang, Shengran Hu, Cong Lu, Robert Lange, Jeff Clune
cs.AI

Résumé

Les systèmes d'IA actuels possèdent des architectures fixes conçues par l'homme et ne peuvent pas s'améliorer de manière autonome et continue. L'avancée de l'IA pourrait elle-même être automatisée. Si cela est réalisé en toute sécurité, cela accélérerait le développement de l'IA et nous permettrait d'en récolter les bénéfices beaucoup plus tôt. Le méta-apprentissage peut automatiser la découverte de nouveaux algorithmes, mais il est limité par des améliorations de premier ordre et par la conception humaine d'un espace de recherche approprié. La machine de Gödel a proposé une alternative théorique : une IA auto-améliorante qui se modifie de manière répétée de façon prouvée bénéfique. Malheureusement, prouver que la plupart des changements sont globalement bénéfiques est impossible en pratique. Nous introduisons la machine de Gödel Darwin (DGM), un système auto-améliorant qui modifie itérativement son propre code (améliorant ainsi également sa capacité à modifier sa base de code) et valide empiriquement chaque changement à l'aide de benchmarks de codage. Inspirée par l'évolution darwinienne et la recherche sur l'ouverture, la DGM maintient une archive d'agents de codage générés. Elle enrichit cette archive en échantillonnant un agent et en utilisant un modèle de base pour créer une nouvelle version intéressante de l'agent échantillonné. Cette exploration ouverte forme un arbre croissant d'agents diversifiés et de haute qualité, permettant l'exploration parallèle de nombreux chemins différents dans l'espace de recherche. Empiriquement, la DGM améliore automatiquement ses capacités de codage (par exemple, de meilleurs outils d'édition de code, gestion de fenêtres à contexte long, mécanismes de relecture par les pairs), augmentant les performances sur SWE-bench de 20,0 % à 50,0 %, et sur Polyglot de 14,2 % à 30,7 %. De plus, la DGM surpasse significativement les bases de référence sans auto-amélioration ni exploration ouverte. Toutes les expériences ont été réalisées avec des précautions de sécurité (par exemple, sandboxing, supervision humaine). La DGM représente une étape importante vers une IA auto-améliorante, capable de rassembler ses propres pierres angulaires le long de chemins qui se déploient en une innovation sans fin.
English
Today's AI systems have human-designed, fixed architectures and cannot autonomously and continuously improve themselves. The advance of AI could itself be automated. If done safely, that would accelerate AI development and allow us to reap its benefits much sooner. Meta-learning can automate the discovery of novel algorithms, but is limited by first-order improvements and the human design of a suitable search space. The G\"odel machine proposed a theoretical alternative: a self-improving AI that repeatedly modifies itself in a provably beneficial manner. Unfortunately, proving that most changes are net beneficial is impossible in practice. We introduce the Darwin G\"odel Machine (DGM), a self-improving system that iteratively modifies its own code (thereby also improving its ability to modify its own codebase) and empirically validates each change using coding benchmarks. Inspired by Darwinian evolution and open-endedness research, the DGM maintains an archive of generated coding agents. It grows the archive by sampling an agent from it and using a foundation model to create a new, interesting, version of the sampled agent. This open-ended exploration forms a growing tree of diverse, high-quality agents and allows the parallel exploration of many different paths through the search space. Empirically, the DGM automatically improves its coding capabilities (e.g., better code editing tools, long-context window management, peer-review mechanisms), increasing performance on SWE-bench from 20.0% to 50.0%, and on Polyglot from 14.2% to 30.7%. Furthermore, the DGM significantly outperforms baselines without self-improvement or open-ended exploration. All experiments were done with safety precautions (e.g., sandboxing, human oversight). The DGM is a significant step toward self-improving AI, capable of gathering its own stepping stones along paths that unfold into endless innovation.
PDF72June 3, 2025