ChatPaper.aiChatPaper

DeepCode: Codifica Agente Aperta

DeepCode: Open Agentic Coding

December 8, 2025
Autori: Zongwei Li, Zhonghang Li, Zirui Guo, Xubin Ren, Chao Huang
cs.AI

Abstract

I recenti progressi nei modelli linguistici di grandi dimensioni (LLM) hanno dato vita a potenti agenti di codifica, rendendo possibile l'evoluzione degli assistenti di codice in veri e propri ingegneri del software. Tuttavia, i metodi esistenti continuano ad affrontare sfide significative nel raggiungere una sintesi ad alta fedeltà da documento a codebase – come nel caso della trasformazione di articoli scientifici in codice – principalmente a causa di un conflitto fondamentale tra il sovraccarico informativo e i colli di bottiglia contestuali degli LLM. In questo lavoro, introduciamo DeepCode, un framework completamente autonomo che affronta alla radice questa sfida attraverso una gestione principiata del flusso informativo. Trattando la sintesi di repository come un problema di ottimizzazione del canale, DeepCode orchestra in modo fluido quattro operazioni informative per massimizzare i segnali rilevanti per il task sotto budget contestuali finiti: compressione della fonte tramite distillazione di blueprint, indicizzazione strutturata mediante memoria di codice stateful, iniezione condizionata di conoscenza tramite generazione aumentata per retrieval e correzione degli errori in ciclo chiuso. Valutazioni estensive sul benchmark PaperBench dimostrano che DeepCode raggiunge prestazioni all'avanguardia, superando decisamente agenti commerciali leader come Cursor e Claude Code e, aspetto cruciale, superando esperti umani di livello PhD di istituti di eccellenza nelle metriche chiave di riproduzione. Trasformando sistematicamente specifiche cartacee in implementazioni di qualità paragonabile a quella produttiva umana, questo lavoro getta nuove fondamenta per la riproduzione scientifica autonoma in grado di accelerare la valutazione della ricerca e la scoperta.
English
Recent advances in large language models (LLMs) have given rise to powerful coding agents, making it possible for code assistants to evolve into code engineers. However, existing methods still face significant challenges in achieving high-fidelity document-to-codebase synthesis--such as scientific papers to code--primarily due to a fundamental conflict between information overload and the context bottlenecks of LLMs. In this work, we introduce DeepCode, a fully autonomous framework that fundamentally addresses this challenge through principled information-flow management. By treating repository synthesis as a channel optimization problem, DeepCode seamlessly orchestrates four information operations to maximize task-relevant signals under finite context budgets: source compression via blueprint distillation, structured indexing using stateful code memory, conditional knowledge injection via retrieval-augmented generation, and closed-loop error correction. Extensive evaluations on the PaperBench benchmark demonstrate that DeepCode achieves state-of-the-art performance, decisively outperforming leading commercial agents such as Cursor and Claude Code, and crucially, surpassing PhD-level human experts from top institutes on key reproduction metrics. By systematically transforming paper specifications into production-grade implementations comparable to human expert quality, this work establishes new foundations for autonomous scientific reproduction that can accelerate research evaluation and discovery.
PDF61December 11, 2025