中国の人工知能スタートアップ企業DeepSeekが、大型言語モデルDeepSeek-V3-0324をひっそりと発表し、AI業界に衝撃を与えました。このモデルは641GBという大容量でAIリポジトリHugging Faceに登場し、DeepSeekの静かだが非常に影響力のあるスタイルを踏襲しています。大々的な宣伝はなく、空のREADMEファイルとモデルの重みだけが添付されていました。

このモデルはMITライセンスを採用しており、商業利用も無料で、M3 Ultraチップを搭載したApple Mac Studioなどの一般消費者向けハードウェアで直接実行できます。AI研究者のAwni Hannun氏はソーシャルメディアで、4ビット量子化バージョンのDeepSeek-V3-0324が512GBのM3 Ultraチップ上で20トークン/秒を超える速度で動作すると明かしました。Mac Studioは高価ですが、これほど大規模なモデルをローカルで実行できるようになったことで、最先端のAIがデータセンターに依存していた従来の状況が打破されました。

DeepSeek

DeepSeek-V3-0324は混合専門家(MoE)アーキテクチャを採用しており、タスク実行時には6850億個のすべてのパラメータではなく、約370億個のパラメータのみを活性化するため、効率が大幅に向上しています。同時に、マルチヘッド潜在的アテンション(MLA)とマルチトークンプレディクション(MTP)技術が統合されており、MLAは長文におけるモデルのコンテキスト理解能力を高め、MTPはモデルが一度に複数のトークンを生成できるようにすることで、出力速度が約80%向上しています。4ビット量子化バージョンではストレージの必要量が352GBに削減され、ハイエンドの消費者向けハードウェアでの実行が可能になりました。

初期のテストユーザーからのフィードバックによると、DeepSeek-V3-0324は以前のバージョンと比べて顕著な改善が見られます。AI研究者のXeophon氏は、このモデルがすべてのテスト指標で大幅な飛躍を遂げ、AnthropicのClaude Sonnet 3.5を上回り、最高の非推論モデルになったと主張しています。さらに、Sonnetのようにサブスクリプションが必要なモデルとは異なり、DeepSeek-V3-0324の重みは無料でダウンロードして使用できます。

QQ20250325-085347.png

DeepSeekのオープンソース化戦略は、西側諸国のAI企業とは対照的です。米国のOpenAIやAnthropicなどはモデルに有料の壁を設けていますが、中国のAI企業はますます緩やかなオープンソースライセンスを採用する傾向にあります。この戦略は中国のAIエコシステムの発展を加速させており、百度、阿里巴巴、テンセントなどのテクノロジー大手も続々とオープンソースAIモデルを発表しています。NVIDIAチップの制限に直面する中国企業は、効率性と最適化を重視することで、不利な点を競争優位性に変えています。

DeepSeek-V3-0324は、間もなくリリースされるDeepSeek-R2推論モデルの基礎となる可能性があります。現在の推論モデルは計算需要が非常に大きいため、DeepSeek-R2の性能が優れていれば、噂されているOpenAIのGPT-5に直接対抗することになります。

DeepSeek-V3-0324を試したいユーザーや開発者は、Hugging Faceから完全なモデルの重みをダウンロードできますが、ファイルサイズが大きいため、ストレージと計算リソースの要件が高くなります。OpenRouterなどのクラウドサービスを利用して、無料のAPIアクセスと使いやすいチャットインターフェースを利用することもできます。DeepSeek独自のチャットインターフェースも新バージョンに対応して更新されている可能性があります。また、Hyperbolic Labsなどの推論サービスプロバイダーを通じてモデルを統合することもできます。

注目すべき点として、DeepSeek-V3-0324はコミュニケーションスタイルが変化しており、以前の人間のような会話的なスタイルから、より正式で技術的なスタイルに変わっています。この変化は、専門的な技術用途への適合を目的としていますが、消費者向けアプリケーションにおける魅力に影響を与える可能性があります。

DeepSeekのオープンソース戦略は、世界のAI情勢を再構築しつつあります。以前は、中国のAIは米国に1~2年の遅れがありましたが、現在は3~6ヶ月に大幅に縮小し、一部の分野では追い抜いています。Androidシステムがオープンソース化によって世界的な地位を獲得したように、オープンソースAIモデルは幅広い用途と開発者の共同イノベーションによって、競争の中で優位に立ち、AI技術のより広範な応用を促進する可能性があります。