DeepCode: Codificación Agéntica Abierta
DeepCode: Open Agentic Coding
December 8, 2025
Autores: Zongwei Li, Zhonghang Li, Zirui Guo, Xubin Ren, Chao Huang
cs.AI
Resumen
Los recientes avances en los modelos de lenguaje de gran escala (LLM) han dado lugar a potentes agentes de codificación, haciendo posible que los asistentes de código evolucionen hacia ingenieros de código. Sin embargo, los métodos existentes aún enfrentan desafíos significativos para lograr una síntesis de alta fidelidad de documento a base de código—como de artículos científicos a código—debido principalmente a un conflicto fundamental entre la sobrecarga de información y los cuellos de botella de contexto de los LLM. En este trabajo, presentamos DeepCode, un marco completamente autónomo que aborda este desafío de manera fundamental mediante una gestión basada en principios del flujo de información. Al tratar la síntesis de repositorios como un problema de optimización de canales, DeepCode orquesta de manera fluida cuatro operaciones de información para maximizar las señales relevantes para la tarea bajo presupuestos de contexto finitos: compresión de la fuente mediante destilación de planos, indexación estructurada usando memoria de código con estado, inyección condicional de conocimiento mediante generación aumentada por recuperación, y corrección de errores en bucle cerrado. Evaluaciones exhaustivas en el benchmark PaperBench demuestran que DeepCode logra un rendimiento de vanguardia, superando decisivamente a agentes comerciales líderes como Cursor y Claude Code, y, crucialmente, superando a expertos humanos de nivel doctoral de instituciones de primer nivel en métricas clave de reproducción. Al transformar sistemáticamente las especificaciones de los artículos en implementaciones de calidad de producción comparables a la de expertos humanos, este trabajo establece nuevas bases para la reproducción científica autónoma que puede acelerar la evaluación y el descubrimiento en investigación.
English
Recent advances in large language models (LLMs) have given rise to powerful coding agents, making it possible for code assistants to evolve into code engineers. However, existing methods still face significant challenges in achieving high-fidelity document-to-codebase synthesis--such as scientific papers to code--primarily due to a fundamental conflict between information overload and the context bottlenecks of LLMs. In this work, we introduce DeepCode, a fully autonomous framework that fundamentally addresses this challenge through principled information-flow management. By treating repository synthesis as a channel optimization problem, DeepCode seamlessly orchestrates four information operations to maximize task-relevant signals under finite context budgets: source compression via blueprint distillation, structured indexing using stateful code memory, conditional knowledge injection via retrieval-augmented generation, and closed-loop error correction. Extensive evaluations on the PaperBench benchmark demonstrate that DeepCode achieves state-of-the-art performance, decisively outperforming leading commercial agents such as Cursor and Claude Code, and crucially, surpassing PhD-level human experts from top institutes on key reproduction metrics. By systematically transforming paper specifications into production-grade implementations comparable to human expert quality, this work establishes new foundations for autonomous scientific reproduction that can accelerate research evaluation and discovery.