チャイナZ(ChinaZ.com)6月18日報道:DeepSeekは最近、DeepSeek-Coder-V2というオープンソースモデルを発表しました。このモデルは、コードと数学の能力においてGPT-4-Turboを凌駕し、多言語対応とコンテキスト処理の長さにおいても大幅な拡張を実現しています。DeepSeek-V2のモデル構造に基づいて、DeepSeek-Coder-V2は専門家混合(MoE)アーキテクチャを採用し、コードと数学的推論能力の強化に特化して設計されています。

DeepSeek-Coder-V2のパフォーマンスは世界トップクラスであり、特にコード生成と数学演算能力が優れています。このモデルとその関連コード、論文はすべてオープンソース化されており、商用利用も無料で、申請も必要ありません。モデルは236Bパラメータと16Bパラメータの2つの規模が提供され、さまざまなアプリケーションのニーズに対応します。

image.png

多言語対応において、DeepSeek-Coder-V2はサポートするプログラミング言語を86種類から338種類に拡張し、より多様な開発ニーズに対応します。同時に、サポートするコンテキストの長さは16Kから128Kに拡張され、より長い入力内容を処理できます。DeepSeek-Coder-V2は32KコンテキストをサポートするAPIサービスも提供しており、価格はDeepSeek-V2と同じです。

標準的なベンチマークテストにおいて、DeepSeek-Coder-V2はコード生成、コード補完、コード修正、数学的推論などにおいて、いくつかのクローズドソースモデルを上回っています。ユーザーは、基本版と指示版、および異なるパラメータ規模のバージョンを含む、さまざまなバージョンのDeepSeek-Coder-V2モデルをダウンロードできます。

DeepSeekは、オンライン体験プラットフォームとGitHubリンク、および技術レポートを提供しており、ユーザーがDeepSeek-Coder-V2をさらに理解し、利用しやすくしています。このモデルの発表は、オープンソースコミュニティに強力なコードと数学処理能力をもたらすだけでなく、関連技術の発展と応用を促進する役割も果たします。

プロジェクトアドレス:https://top.aibase.com/tool/deepseek-coder-v2

オンライン体験:https://chat.deepseek.com/sign_in