思科系统公司近日在洛杉矶举办的合作伙伴活动上,推出了两款专为人工智能(AI)模型优化的数据中心设备。这些新系统将进一步丰富思科的硬件产品组合,以帮助企业高效处理 AI 相关工作负载。
新推出的第一款产品线是 UCS C885A M8系列服务器。这款服务器可以支持多达八个图形处理单元(GPU),为企业用户提供强大的计算能力。思科为该系列提供了三种 GPU 选项,其中包括由 Nvidia 公司提供的 H100和 H200,以及竞争对手 AMD 的 MI300X 芯片。
此外,UCS C885A M8系列中的每个图形卡都配备了独立的网络接口控制器(NIC),这些专用芯片能够充当服务器与网络之间的中介。思科提供了两种 Nvidia NIC 选项,分别是 ConnectX-7和 BlueField-3。后者是一种被称为 “超级 NIC” 的高级解决方案,可以加速数据流量的加密等任务。
与此同时,思科还在其新服务器中集成了 BlueField-3芯片,这是一种数据处理单元(DPU),同样由 Nvidia 制造,能够提升管理附加存储和网络基础设施的效率。处理未被专用芯片处理的计算任务的则是 AMD 的中央处理器(CPU),用户可以选择最新的第五代 CPU 或2022年的服务器处理器系列。
除了服务器,思科还推出了四款被称为 AI POD 的大型数据中心设备。这些 AI POD 可以将多达16个 Nvidia 图形卡、网络设备和其他支持组件整合在一起,客户还可以选择添加来自 NetApp 或 Pure Storage 的存储设备。软件方面,AI POD 配备了 Nvidia AI Enterprise 的许可证,该软件包包含了一系列可供企业训练自身神经网络的预打包 AI 模型和工具。此外,还有用于构建 AI 驱动的网络安全软件的 Nvidia Morpheus 框架,以及帮助优化 AI 集群网络的 HPC-X 工具包和简化容器应用程序构建和部署的 Red Hat OpenShift 平台。
思科首席产品官 Jeetu Patel 表示:“企业客户面临着部署 AI 工作负载的压力,特别是在智能工作流程逐渐成为现实,AI 开始自主解决问题的背景下。” 他补充道,思科的 AI POD 和 GPU 服务器创新提升了这些工作负载的安全性、合规性和处理能力。
思科计划于下个月开始接受 AI POD 的订单,而 UCS C885A M8服务器系列现已可供下单,预计将在年底前开始发货。
划重点:
🌟 思科推出了 UCS C885A M8系列服务器,支持多达八个 Nvidia GPU,为 AI 工作负载提供强大计算能力。
🖥️ 新发布的 AI POD 设备可集成多达16个 Nvidia 图形卡,并支持扩展存储选项,便于企业快速部署 AI 解决方案。
📈 思科的 AI 解决方案强调了增强安全性、合规性和处理能力,以应对企业在 AI 应用中的新需求。