オラクルとNVIDIAの連携がさらに拡大!オラクルは、自社のクラウドインフラストラクチャ(OCI)に新しいGPUオプションとAIインフラストラクチャサービスを追加すると発表しました。この動きは、AI市場の成熟度を高め、あらゆる規模の企業がAI機能をより柔軟に活用できるようにすることを目指しています。

機房 データセンター (1)サーバー

画像出典:AI生成画像、画像ライセンス提供元Midjourney

今回の連携の中心は、OCIのコンピューティングサービスにNVIDIA L40S GPUが追加され、NVIDIA H100 Tensor Core GPU向けに新しい仮想マシンオプションが提供されることです。オラクルクラウドインフラストラクチャは、エントリーレベルから高性能まで幅広いNVIDIA GPUラインナップを提供することで、あらゆる規模の企業におけるAIコンピューティング能力への増大する需要に対応しています。

新しいL40S GPUインスタンスは、推論、小型モデルのトレーニング、デジタルツインのようなグラフィックスを多用するアプリケーションなど、多用途なAIアクセラレータです。NVIDIAの加速コンピューティング製品担当ディレクターであるDave Salvator氏は、これを「汎用AIアクセラレータ」と呼び、従来のAIタスクだけでなく、推論においてはより優れた性能を発揮し、小型モデルのトレーニングにも使用でき、さらに3Dレンダリングやビデオ処理といったビジュアル機能も備えていると説明しています。

オラクルは、これらの新しいGPUオプションをベアメタルと仮想マシンの構成で提供することで、顧客がAIワークロードの展開においてより多くの選択肢を持つことができます。オラクルは、ベアメタル製品の重要性を強調しており、これは顧客に利用可能なすべてのリソースを提供するため、最大限のパフォーマンスを求めるAI開発の初期段階において非常に重要です。

さらに、オラクルの「OCI Supercluster」サービスも更新され、最大65,000個のNVIDIA GPUをサポートできるようになりました。これほどの規模は、数十億ものパラメータを持つ大規模なAIモデルのトレーニングを行う組織を対象としています。

業界アナリストは、これはアマゾンウェブサービス、Microsoft Azure、Google Cloudが主導するAIクラウド市場において、オラクルがより競争力のある戦略を展開するための動きだと考えています。NVIDIAとの連携を通じて、オラクルは大規模なAIワークロードを展開する企業にとって重要な選択肢となることを目指しています。同時に、この連携はNVIDIAにとっても有益であり、最新のGPU技術を披露し、企業市場へのリーチを拡大するための重要なクラウドプラットフォームを提供します。

AIが様々な業界を変革し続けるにつれて、最も強力で柔軟なAIインフラストラクチャを提供するためのクラウドプロバイダー間の競争も激化しています。オラクルの最新の動きは、この急速に変化する分野で競争力を維持しようとする決意を示しています。企業にとって、これらの新しい選択肢は、AIインフラストラクチャへの投資を最適化し、小規模組織の参入障壁を下げ、同時に最も厳しいAIワークロードに必要な規模を提供する機会をもたらします。

要点:

  • 😀オラクルとNVIDIAが連携を拡大し、OCIに新しいGPUオプションとサービスを追加。
  • 😜L40S GPUは、多用途なAIアクセラレータで、様々なワークロードに対応。
  • 😃オラクルはこの動きを通じて、AIクラウド市場における競争力を強化し、あらゆる規模の企業により多くの選択肢を提供。