シスコシステムズは先日ロサンゼルスで開催されたパートナーイベントで、人工知能(AI)モデル向けに最適化された2つのデータセンター機器を発表しました。これらの新システムは、シスコのハードウェア製品ポートフォリオをさらに充実させ、企業がAI関連のワークロードを効率的に処理するのに役立ちます。
最初に発表された製品ラインは、UCS C885A M8シリーズサーバーです。このサーバーは最大8つのグラフィック処理ユニット(GPU)をサポートし、企業ユーザーに強力な計算能力を提供します。シスコはこのシリーズに、Nvidia社のH100とH200、そして競合他社のAMDのMI300Xチップを含む3種類のGPUオプションを提供しています。
さらに、UCS C885A M8シリーズの各グラフィックカードには、独立したネットワークインターフェースコントローラー(NIC)が搭載されています。これらの専用チップは、サーバーとネットワーク間の仲介役として機能します。シスコは、ConnectX-7とBlueField-3という2種類のNvidia NICオプションを提供しています。後者は「スーパーNIC」と呼ばれる高度なソリューションであり、データトラフィックの暗号化などのタスクを高速化できます。
同時に、シスコは新しいサーバーにBlueField-3チップも統合しています。これはNvidiaが製造するデータ処理ユニット(DPU)であり、追加ストレージやネットワークインフラストラクチャの管理効率を向上させることができます。専用チップで処理されない計算タスクを処理するのはAMDのセントラルプロセッシングユニット(CPU)で、最新の第5世代CPUまたは2022年サーバープロセッサーシリーズを選択できます。
サーバーに加えて、シスコはAI PODと呼ばれる4つの大型データセンター機器も発表しました。これらのAI PODは、最大16個のNvidiaグラフィックカード、ネットワーク機器、その他のサポートコンポーネントを統合できます。顧客は、NetAppまたはPure Storage製のストレージデバイスを追加することもできます。ソフトウェア面では、AI PODにはNvidia AI Enterpriseのライセンスが付属しており、このソフトウェアパッケージには、企業が独自のニューラルネットワークをトレーニングするための、プリパッケージされたAIモデルとツールが数多く含まれています。さらに、AI駆動のネットワークセキュリティソフトウェアを構築するためのNvidia Morpheusフレームワーク、AIクラスタネットワークを最適化するHPC-Xツールキット、コンテナアプリケーションの構築と展開を簡素化するRed Hat OpenShiftプラットフォームも含まれています。
シスコの最高製品責任者であるJeetu Patel氏は、「企業顧客は、特にスマートワークフローが現実になり、AIが問題を自律的に解決し始めている状況において、AIワークロードの展開に圧力をかけています」と述べています。そして、シスコのAI PODとGPUサーバーの革新は、これらのワークロードのセキュリティ、コンプライアンス、処理能力を向上させると付け加えました。
シスコは来月からAI PODの注文を受け付けを開始する予定で、UCS C885A M8サーバーシリーズは現在注文可能です。出荷開始は年末頃を予定しています。
要点:
🌟 シスコは、最大8つのNvidia GPUをサポートするUCS C885A M8シリーズサーバーを発表し、AIワークロードに強力な計算能力を提供します。
🖥️ 新発表のAI PODデバイスは、最大16個のNvidiaグラフィックカードを統合し、拡張ストレージオプションをサポートすることで、企業がAIソリューションを迅速に展開できるようにします。
📈 シスコのAIソリューションは、AIアプリケーションにおける企業の新たなニーズに対応するため、セキュリティ、コンプライアンス、処理能力の強化に重点を置いています。