DeepCode: Открытый агентный подход к программированию
DeepCode: Open Agentic Coding
December 8, 2025
Авторы: Zongwei Li, Zhonghang Li, Zirui Guo, Xubin Ren, Chao Huang
cs.AI
Аннотация
Последние достижения в области больших языковых моделей (LLМ) привели к появлению мощных кодирующих агентов, что позволило ассистентам по коду эволюционировать в инженеров по коду. Однако существующие методы по-прежнему сталкиваются со значительными трудностями в достижении высокоточной синтеза кодовой базы из документации — например, преобразования научных статей в код — в основном из-за фундаментального конфликта между информационной перегрузкой и контекстными ограничениями LLМ. В данной работе мы представляем DeepCode, полностью автономный фреймворк, который принципиально решает эту проблему за счёт управления информационными потоками на системной основе. Рассматривая синтез репозитория как проблему оптимизации канала, DeepCode органично сочетает четыре информационные операции для максимизации релевантных задаче сигналов при ограниченном контекстном бюджете: сжатие исходных данных через дистилляцию blueprint-ов, структурированное индексирование с использованием stateful code memory, условное внедрение знаний посредством retrieval-augmented generation и замкнутую коррекцию ошибок. Обширные оценки на бенчмарке PaperBench демонстрируют, что DeepCode достигает наилучшей производительности, значительно превосходя ведущие коммерческие агенты, такие как Cursor и Claude Code, и, что ключевым образом, превосходя экспертов-людей уровня PhD из ведущих институтов по ключевым метрикам воспроизведения. Систематически преобразуя спецификации из статей в реализации производственного уровня, сопоставимые по качеству с работами экспертов-людей, данная работа закладывает новые основы для автономного научного воспроизведения, способного ускорить оценку исследований и научные открытия.
English
Recent advances in large language models (LLMs) have given rise to powerful coding agents, making it possible for code assistants to evolve into code engineers. However, existing methods still face significant challenges in achieving high-fidelity document-to-codebase synthesis--such as scientific papers to code--primarily due to a fundamental conflict between information overload and the context bottlenecks of LLMs. In this work, we introduce DeepCode, a fully autonomous framework that fundamentally addresses this challenge through principled information-flow management. By treating repository synthesis as a channel optimization problem, DeepCode seamlessly orchestrates four information operations to maximize task-relevant signals under finite context budgets: source compression via blueprint distillation, structured indexing using stateful code memory, conditional knowledge injection via retrieval-augmented generation, and closed-loop error correction. Extensive evaluations on the PaperBench benchmark demonstrate that DeepCode achieves state-of-the-art performance, decisively outperforming leading commercial agents such as Cursor and Claude Code, and crucially, surpassing PhD-level human experts from top institutes on key reproduction metrics. By systematically transforming paper specifications into production-grade implementations comparable to human expert quality, this work establishes new foundations for autonomous scientific reproduction that can accelerate research evaluation and discovery.