DeepSeek-Coder-V2:突破代码智能闭源模型的障碍DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code
Intelligence
我们介绍了DeepSeek-Coder-V2,这是一个开源的专家混合(MoE)代码语言模型,在代码特定任务中实现了与GPT4-Turbo可比的性能。具体来说,DeepSeek-Coder-V2是在DeepSeek-V2的中间检查点进一步预训练的,额外增加了6万亿个标记。通过这种持续的预训练,DeepSeek-Coder-V2显著增强了DeepSeek-V2的编码和数学推理能力,同时在一般语言任务中保持了可比性能。与DeepSeek-Coder-33B相比,DeepSeek-Coder-V2在各个与代码相关的任务以及推理和一般能力方面都取得了显著进展。此外,DeepSeek-Coder-V2将其对编程语言的支持从86种扩展到338种,同时将上下文长度从16K扩展到128K。在标准基准评估中,DeepSeek-Coder-V2在编码和数学基准测试中表现优于GPT4-Turbo、Claude 3 Opus和Gemini 1.5 Pro等闭源模型。