DeepSeek-Coder-V2:突破代碼智能中封閉源模型的障礙DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code
Intelligence
我們介紹了 DeepSeek-Coder-V2,一個開源的專家混合模型(MoE)程式語言模型,其在程式相關任務中實現了與 GPT4-Turbo 相當的性能。具體而言,DeepSeek-Coder-V2 是在 DeepSeek-V2 的中間檢查點進一步預訓練,額外使用了 6 兆個標記。通過這種持續的預訓練,DeepSeek-Coder-V2 顯著增強了 DeepSeek-V2 的編碼和數學推理能力,同時在一般語言任務中保持了可比性能。與 DeepSeek-Coder-33B 相比,DeepSeek-Coder-V2 在程式相關任務、推理和一般能力的各個方面均取得了顯著進展。此外,DeepSeek-Coder-V2 將其對編程語言的支持從 86 個擴展到 338 個,同時將上下文長度從 16K 擴展到 128K。在標準基準評估中,DeepSeek-Coder-V2 在編碼和數學基準測試中實現了優越性能,優於 GPT4-Turbo、Claude 3 Opus 和 Gemini 1.5 Pro 等封閉源模型。