DeepSeek-Coder-V2は、コード言語向けに設計されたオープンソースのエキスパート混合モデル(Mixture-of-Experts、MoE)です。その性能はGPT4-Turboに匹敵します。コード固有のタスクにおいて優れた性能を発揮し、一般的な言語タスクにおいても同等の性能を維持しています。DeepSeek-Coder-33Bと比較して、V2版はコード関連タスクと推論能力が大幅に向上しています。さらに、サポートするプログラミング言語は86種類から338種類に、コンテキストの長さは16Kから128Kに拡張されました。