11月17日から22日にかけて開催された国際高性能コンピューティング、ネットワーク、ストレージ、分析会議(SC24)において、デルは企業が生成AIと大規模言語モデル(LLM)の導入における課題を克服できるよう支援することを目的とした、一連の新製品とサービスを発表しました。

デルのインフラストラクチャおよび通信製品マーケティング担当シニアバイスプレジデントであるVarun Chhabra氏は、現在企業がAI適用において直面している主な問題として、データ品質、コスト、エネルギー消費、持続可能性を挙げています。

アナリストのDave Vellante氏は、競争の激しいデジタル環境において優位性を維持するために、企業は自社のデータを効果的に活用する必要があると指摘しています。デルのAIインフラストラクチャ、ソリューション、サービスはまさにこのニーズに応えるために開発されており、企業がデータをより効果的に処理し、インサイトを抽出し、タスクを自動化し、プロセスを改善する支援をします。

image.png

今回の会議では、AIワークロードに特化した3つの新型サーバー、PowerEdge XE7740とPowerEdge XE9685L、そして統合ラック5000(IR5000)シリーズのアップグレード版が発表されました。PowerEdge XE7740はXeon 6プロセッサを搭載し、推論と微調整に適しており、8つの前面PCIeスロットを備え、高速GPU接続を実現します。Chhabra氏は、これが企業がAI導入を始めるための最適なプラットフォームだと考えています。

もう1つのPowerEdge XE9685Lは、ラックあたり最大96個のNVIDIA Tensor Core H200またはB200 GPUをサポートし、高密度計算のニーズに対応します。特にAIトレーニングに最適です。デルはまた、液冷と風冷に対応し、96個のGPUを搭載可能で、近日発売予定のNVIDIA GB200 Grace Blackwell NVL4スーパーチップにも対応する、新しいプラグアンドプレイソリューションである統合ラック5000シリーズを発表しました。

さらに、デルのデータレイクハウスの最新バージョンは、TrinoクエリエンジンとApache Spark処理システム間の統一アクセス制御をサポートし、データ処理をより効率的にします。デルはAIインフラストラクチャにおいてNVIDIAとも緊密に協力しており、年末までにH200SXMクラウドGPUを含むNVIDIA Tensor Core GPUのサポートを予定しています。

最後に、デルはデータ管理サービス、持続可能なデータセンターサービス、AIネットワーク設計サービス、ServiceNow Assistの実装サービスなど、一連の新サービスを発表しました。これらは企業がより効率的なAIアプリケーションとデータ活用を実現するためのものです。

要点:

🌐 デルはSC24会議で、企業のAI導入における課題に対処するための新しいAIインフラストラクチャを発表しました。

💪 発表されたPowerEdgeサーバーは強力な計算能力を備え、AIワークロードのニーズに応えることに重点を置いています。

🌱 デルは、企業の持続可能な発展とインテリジェントな変革を支援する複数のサービスを発表しました。