DeepCode: Offener agentenbasierter Code
DeepCode: Open Agentic Coding
December 8, 2025
papers.authors: Zongwei Li, Zhonghang Li, Zirui Guo, Xubin Ren, Chao Huang
cs.AI
papers.abstract
Jüngste Fortschritte bei großen Sprachmodellen (LLMs) haben leistungsstarke Code-Agenten hervorgebracht, die es ermöglichen, dass Code-Assistenten zu Code-Ingenieuren evolvieren. Allerdings stehen bestehende Methoden nach wie vor vor erheblichen Herausforderungen bei der Synthese von Codebasen mit hoher Wiedergabetreue aus Dokumenten – wie beispielsweise wissenschaftlichen Artikeln –, was hauptsächlich auf einen grundlegenden Konflikt zwischen Informationsüberflutung und den Kontextengpässen von LLMs zurückzuführen ist. In dieser Arbeit stellen wir DeepCode vor, ein vollständig autonomes Framework, das diese Herausforderung durch prinzipiengeleitetes Informationsflussmanagement grundlegend adressiert. Indem Repository-Synthese als ein Kanaloptimierungsproblem behandelt wird, orchestriert DeepCode nahtlos vier Informationsoperationen, um taskspezifische Signale unter begrenzten Kontextbudgets zu maximieren: Quellenkompression durch Blueprint-Destillation, strukturierte Indizierung mittels stateful Code Memory, bedingte Wissensinjektion via Retrieval-Augmented Generation und Closed-Loop-Fehlerkorrektur. Umfangreiche Auswertungen auf dem PaperBench-Benchmark zeigen, dass DeepCode state-of-the-art Leistung erzielt und dabei führende kommerzielle Agenten wie Cursor und Claude Code entscheidend übertrifft; entscheidend ist, dass es sogar PhD-level menschliche Experten von Top-Instituten in wichtigen Reproduktionsmetriken übertrifft. Durch die systematische Transformation von Papierspezifikationen in produktionsreife Implementierungen, die mit der Qualität menschlicher Experten vergleichbar sind, legt diese Arbeit neue Grundlagen für autonome wissenschaftliche Reproduktion, die Forschungsevaluierung und -entdeckung beschleunigen kann.
English
Recent advances in large language models (LLMs) have given rise to powerful coding agents, making it possible for code assistants to evolve into code engineers. However, existing methods still face significant challenges in achieving high-fidelity document-to-codebase synthesis--such as scientific papers to code--primarily due to a fundamental conflict between information overload and the context bottlenecks of LLMs. In this work, we introduce DeepCode, a fully autonomous framework that fundamentally addresses this challenge through principled information-flow management. By treating repository synthesis as a channel optimization problem, DeepCode seamlessly orchestrates four information operations to maximize task-relevant signals under finite context budgets: source compression via blueprint distillation, structured indexing using stateful code memory, conditional knowledge injection via retrieval-augmented generation, and closed-loop error correction. Extensive evaluations on the PaperBench benchmark demonstrate that DeepCode achieves state-of-the-art performance, decisively outperforming leading commercial agents such as Cursor and Claude Code, and crucially, surpassing PhD-level human experts from top institutes on key reproduction metrics. By systematically transforming paper specifications into production-grade implementations comparable to human expert quality, this work establishes new foundations for autonomous scientific reproduction that can accelerate research evaluation and discovery.