ChatPaper.aiChatPaper

DeepCode : Codage Agentique Ouvert

DeepCode: Open Agentic Coding

December 8, 2025
papers.authors: Zongwei Li, Zhonghang Li, Zirui Guo, Xubin Ren, Chao Huang
cs.AI

papers.abstract

Les progrès récents des grands modèles de langage (LLM) ont donné naissance à des agents de codage puissants, permettant aux assistants de code d'évoluer vers des ingénieurs de code. Cependant, les méthodes existantes rencontrent encore des difficultés importantes pour réaliser une synthèse fidèle de documents vers des bases de code – comme la conversion d'articles scientifiques en code – principalement en raison d'un conflit fondamental entre la surcharge d'information et les goulots d'étranglement contextuels des LLM. Dans ce travail, nous présentons DeepCode, un cadre entièrement autonome qui aborde fondamentalement ce défi grâce à une gestion raisonnée des flux d'information. En traitant la synthèse de dépôts comme un problème d'optimisation de canal, DeepCode orchestre de manière transparente quatre opérations informationnelles pour maximiser les signaux pertinents à la tâche sous des budgets contextuels finis : la compression des sources via une distillation de plan, l'indexation structurée utilisant une mémoire de code étatique, l'injection conditionnelle de connaissances via la génération augmentée par retrieval, et la correction d'erreurs en boucle fermée. Des évaluations approfondies sur le benchmark PaperBench démontrent que DeepCode atteint des performances à la pointe de l'état de l'art, surpassant nettement des agents commerciaux leaders tels que Cursor et Claude Code, et surtout, dépassant les experts humains de niveau doctorat issus d'institutions prestigieuses sur des métriques clés de reproduction. En transformant systématiquement des spécifications papier en des implémentations de qualité production comparables à celles d'experts humains, ce travail établit de nouvelles bases pour la reproduction scientifique autonome pouvant accélérer l'évaluation et la découverte en recherche.
English
Recent advances in large language models (LLMs) have given rise to powerful coding agents, making it possible for code assistants to evolve into code engineers. However, existing methods still face significant challenges in achieving high-fidelity document-to-codebase synthesis--such as scientific papers to code--primarily due to a fundamental conflict between information overload and the context bottlenecks of LLMs. In this work, we introduce DeepCode, a fully autonomous framework that fundamentally addresses this challenge through principled information-flow management. By treating repository synthesis as a channel optimization problem, DeepCode seamlessly orchestrates four information operations to maximize task-relevant signals under finite context budgets: source compression via blueprint distillation, structured indexing using stateful code memory, conditional knowledge injection via retrieval-augmented generation, and closed-loop error correction. Extensive evaluations on the PaperBench benchmark demonstrate that DeepCode achieves state-of-the-art performance, decisively outperforming leading commercial agents such as Cursor and Claude Code, and crucially, surpassing PhD-level human experts from top institutes on key reproduction metrics. By systematically transforming paper specifications into production-grade implementations comparable to human expert quality, this work establishes new foundations for autonomous scientific reproduction that can accelerate research evaluation and discovery.
PDF61December 11, 2025