先日、NVIDIAは最新のBlackwellプラットフォームを発表し、MLPerf Training 4.1ベンチマークテストでその初期性能を披露しました。テスト結果によると、Blackwellは前世代のHopperプラットフォームと比較して、いくつかの分野で性能が倍増しており、業界の注目を集めています。
MLPerf Training 4.1ベンチマークテストにおいて、BlackwellプラットフォームはLLM(大規模言語モデル)ベンチマークのLlama 2 70Bファインチューニングタスクで、GPUあたりの性能がHopperの2.2倍に達し、GPT-3 175Bの事前学習では2倍の向上を示しました。さらに、Stable Diffusion v2のトレーニングなどの他のベンチマークテストでも、Blackwellは前世代製品を1.7倍上回る性能を示しました。
注目すべきは、Hopperも引き続き性能向上を見せている点です。前回のMLPerf Trainingベンチマークテストと比較して、Hopperの言語モデル事前学習における性能も1.3倍向上しています。これは、NVIDIAの技術が継続的に進歩していることを示しています。最近のGPT-3 175Bベンチマークテストでは、NVIDIAは11,616個のHopper GPUを用いて新しい拡張記録を達成しました。
Blackwellの技術的詳細について、NVIDIAは、新しいアーキテクチャが最適化されたTensor Coreとより高速な高帯域幅メモリを使用していると述べています。これにより、GPT-3 175Bベンチマークテストの実行に64個のGPUしか必要なくなり、Hopperプラットフォームでは同じ性能を実現するために256個のGPUが必要でした。
NVIDIAは発表会で、Hopperの後継製品におけるソフトウェアとネットワークの更新による性能向上も強調しており、Blackwellも今後のアップデートで継続的に改善されると予想されます。さらに、NVIDIAは来年、より多くのメモリとより強力な計算能力を提供する次世代AIアクセラレータBlackwell Ultraを発表する予定です。
BlackwellはMLPerf Inference v4.1ベンチマークテストにも昨年9月に初登場し、AI推論において、GPUあたりH100を4倍上回る驚異的な成果を達成しました。特に、より低いFP4精度を使用しています。この新しいトレンドは、低遅延チャットボットやOpenAIのo1モデルのような高度な計算ニーズの増加に対応することを目的としています。
要点:
- 🚀 ** NVIDIA BlackwellプラットフォームはAIトレーニングにおいて性能が倍増し、業界標準を刷新!**
- 📈 ** GPT-3 175Bベンチマークテストにおいて、Blackwellはわずか64個のGPUで、効率性を大幅に向上!**
- 🔍 ** 来年、Blackwell Ultraを発表予定。より高いメモリと計算能力を提供予定!**