オラクルは、世界初のゼッタスケールクラウドコンピューティングクラスタを発表しました。このクラスタは、最大13万1072個のNVIDIA Blackwell GPUを搭載し、最大2.4ゼタFLOPSのピーク性能を提供します。この強力なAIインフラストラクチャにより、企業は大規模なAIワークロードを、より高い柔軟性とデータ主権を保ちながら処理できるようになります。
オラクルクラウドインフラストラクチャ(OCI)とNVIDIAの先進的なGPUアーキテクチャの組み合わせにより、拡張性の高いAIコンピューティングソリューションが実現します。これは、世界中の企業や研究者にとって非常に重要です。NVIDIAの副社長であるIan Buck氏は、NVIDIAのフルスタックAIコンピューティングプラットフォームとオラクルのクラウドサービスの組み合わせにより、前例のない規模でAIコンピューティング能力を提供すると述べています。
この新たな進歩は、高度なAI研究開発を支援するだけでなく、医療業界など、ZoomやWideLabsなどの協業プラットフォームにとっても重要な地域データ主権を確保します。オラクルクラウドインフラストラクチャのGPU数は、AWS、Azure、Google Cloudなどの他のクラウドサービスプロバイダーの6倍です。比較として、AWS UltraClustersは2万個のGPUしか搭載できませんが、OCIはそれを3倍上回る計算能力を提供しており、この分野におけるオラクルの大きな優位性を示しています。
オラクルは、2.4ゼタFLOPSの性能を達成した、ゼッタスケールAIスーパーコンピューターを提供した最初の企業であると主張しており、競合他社は現在エクサスケールレベルにとどまっています。さらに、OCIはNVIDIA H200、B200、GB200など、さまざまなGPUをサポートし、幅広いアーキテクチャを選択できるため、さまざまな規模のAIワークロードに対応できます。
特筆すべきは、OCIがNVIDIA GB200 Grace Blackwellスーパーチップを最初に提供することです。このチップは、H100 GPUと比べてトレーニング速度が4倍、推論速度が30倍速く、リアルタイム推論やマルチモーダル大規模言語モデルのトレーニングを必要とするAIモデルにとって非常に重要です。
オラクルのAIスーパーコンピューターは、規模において圧倒的な優位性を持つだけでなく、柔軟性、拡張性、高度なセキュリティを備えたAIインフラストラクチャを提供しており、他のクラウドサービスプロバイダーは追随できません。そのため、オラクルは大規模なAIモデルのトレーニングや高度なコンピューティング技術の活用において、企業にとって最適な選択肢となっています。
OpenAIは最近、OCIと提携し、ChatGPTの運用能力を拡大し、オラクルのAIインフラストラクチャを活用して、増加する生成AIサービスの需要に対応しています。同時に、イーロン・マスク氏のAIスタートアップであるxAIも独自のデータセンターを建設中で、10万個のNVIDIAチップを使用する計画であり、速度とインフラストラクチャの制御を重視していることがわかります。
さらに、オラクルはマルチクラウド戦略においても重要な一歩を踏み出し、最近AWSと提携してOracle Database@AWSサービスを発表し、クラウドインフラストラクチャの柔軟性と選択肢をさらに強化しました。
要点:
🚀 オラクルは、13万1072個のNVIDIA Blackwell GPUを搭載し、2.4ゼタFLOPSの性能を提供する、世界初のゼッタスケールAIスーパーコンピュータークラスタを発表しました。
🌍 オラクルクラウドインフラストラクチャは、GPU数で他社をリードし、さまざまなGPUアーキテクチャをサポートすることで、さまざまな規模のAIニーズに対応します。
🤝 オラクルはOpenAIと提携してAIインフラストラクチャを拡張し、同時にAWSと提携してOracle Database@AWSサービスを提供しています。