ChatPaper.aiChatPaper

DeepSeek-Coder-V2: Het doorbreken van de barrière van gesloten bronmodellen in code-intelligentie

DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence

June 17, 2024
Auteurs: DeepSeek-AI, Qihao Zhu, Daya Guo, Zhihong Shao, Dejian Yang, Peiyi Wang, Runxin Xu, Y. Wu, Yukun Li, Huazuo Gao, Shirong Ma, Wangding Zeng, Xiao Bi, Zihui Gu, Hanwei Xu, Damai Dai, Kai Dong, Liyue Zhang, Yishi Piao, Zhibin Gou, Zhenda Xie, Zhewen Hao, Bingxuan Wang, Junxiao Song, Deli Chen, Xin Xie, Kang Guan, Yuxiang You, Aixin Liu, Qiushi Du, Wenjun Gao, Xuan Lu, Qinyu Chen, Yaohui Wang, Chengqi Deng, Jiashi Li, Chenggang Zhao, Chong Ruan, Fuli Luo, Wenfeng Liang
cs.AI

Samenvatting

We presenteren DeepSeek-Coder-V2, een open-source Mixture-of-Experts (MoE) code-taalmodel dat prestaties levert die vergelijkbaar zijn met GPT4-Turbo in code-specifieke taken. Specifiek is DeepSeek-Coder-V2 verder voorgetraind vanaf een tussenliggend checkpoint van DeepSeek-V2 met aanvullende 6 biljoen tokens. Door deze voortgezette voorpretraining verbetert DeepSeek-Coder-V2 aanzienlijk de codeer- en wiskundige redeneervaardigheden van DeepSeek-V2, terwijl het vergelijkbare prestaties behoudt in algemene taal taken. In vergelijking met DeepSeek-Coder-33B toont DeepSeek-Coder-V2 significante vooruitgang in verschillende aspecten van code-gerelateerde taken, evenals in redeneer- en algemene vaardigheden. Daarnaast breidt DeepSeek-Coder-V2 zijn ondersteuning voor programmeertalen uit van 86 naar 338, terwijl het de contextlengte uitbreidt van 16K naar 128K. In standaard benchmarkevaluaties behaalt DeepSeek-Coder-V2 superieure prestaties vergeleken met gesloten modellen zoals GPT4-Turbo, Claude 3 Opus en Gemini 1.5 Pro in coderings- en wiskundige benchmarks.
English
We present DeepSeek-Coder-V2, an open-source Mixture-of-Experts (MoE) code language model that achieves performance comparable to GPT4-Turbo in code-specific tasks. Specifically, DeepSeek-Coder-V2 is further pre-trained from an intermediate checkpoint of DeepSeek-V2 with additional 6 trillion tokens. Through this continued pre-training, DeepSeek-Coder-V2 substantially enhances the coding and mathematical reasoning capabilities of DeepSeek-V2, while maintaining comparable performance in general language tasks. Compared to DeepSeek-Coder-33B, DeepSeek-Coder-V2 demonstrates significant advancements in various aspects of code-related tasks, as well as reasoning and general capabilities. Additionally, DeepSeek-Coder-V2 expands its support for programming languages from 86 to 338, while extending the context length from 16K to 128K. In standard benchmark evaluations, DeepSeek-Coder-V2 achieves superior performance compared to closed-source models such as GPT4-Turbo, Claude 3 Opus, and Gemini 1.5 Pro in coding and math benchmarks.
PDF684February 7, 2026