Cisco Systems a récemment lancé deux nouveaux équipements de centre de données optimisés pour les modèles d'intelligence artificielle (IA) lors d'un événement partenaire à Los Angeles. Ces nouveaux systèmes enrichiront davantage la gamme de produits matériels de Cisco pour aider les entreprises à traiter efficacement les charges de travail liées à l'IA.
La première nouvelle gamme de produits est le serveur UCS C885A M8. Ce serveur peut prendre en charge jusqu'à huit unités de traitement graphique (GPU), offrant aux utilisateurs professionnels une puissance de calcul considérable. Cisco propose trois options de GPU pour cette série, notamment les H100 et H200 de Nvidia et la puce MI300X de son concurrent AMD.
De plus, chaque carte graphique de la série UCS C885A M8 est équipée d'un contrôleur d'interface réseau (NIC) indépendant. Ces puces spécialisées servent d'intermédiaires entre le serveur et le réseau. Cisco propose deux options de NIC Nvidia : ConnectX-7 et BlueField-3. Cette dernière est une solution avancée, qualifiée de « super NIC », qui accélère des tâches telles que le chiffrement du trafic de données.
Parallèlement, Cisco a intégré la puce BlueField-3, une unité de traitement des données (DPU) également fabriquée par Nvidia, dans ses nouveaux serveurs. Elle améliore l'efficacité de la gestion du stockage additionnel et des infrastructures réseau. Le traitement des tâches de calcul non traitées par les puces spécialisées est effectué par un processeur central (CPU) AMD. Les utilisateurs peuvent choisir le dernier processeur de 5e génération ou la série de processeurs de serveur 2022.
En plus des serveurs, Cisco a également lancé quatre grands équipements de centre de données appelés AI POD. Ces AI POD peuvent intégrer jusqu'à 16 cartes graphiques Nvidia, des équipements réseau et d'autres composants de support. Les clients peuvent également choisir d'ajouter des dispositifs de stockage de NetApp ou Pure Storage. Sur le plan logiciel, les AI POD sont équipés d'une licence Nvidia AI Enterprise, qui comprend une série de modèles et d'outils IA pré-emballés permettant aux entreprises de former leurs propres réseaux neuronaux. On y trouve également le framework Nvidia Morpheus pour la construction de logiciels de cybersécurité basés sur l'IA, la boîte à outils HPC-X pour optimiser les réseaux de clusters IA, et la plateforme Red Hat OpenShift pour simplifier la création et le déploiement d'applications conteneurisées.
Jeetu Patel, directeur des produits chez Cisco, a déclaré : « Les clients professionnels sont confrontés à la pression du déploiement de charges de travail IA, notamment dans un contexte où les workflows intelligents deviennent une réalité et où l'IA commence à résoudre les problèmes de manière autonome. » Il a ajouté que les innovations de Cisco en matière d'AI POD et de serveurs GPU amélioraient la sécurité, la conformité et les capacités de traitement de ces charges de travail.
Cisco prévoit de commencer à accepter les commandes d'AI POD le mois prochain, tandis que la série de serveurs UCS C885A M8 est déjà disponible à la commande et devrait commencer à être expédiée d'ici la fin de l'année.
Points clés :
🌟 Cisco lance les serveurs UCS C885A M8, prenant en charge jusqu'à huit GPU Nvidia, offrant une puissance de calcul importante pour les charges de travail IA.
🖥️ Les nouveaux équipements AI POD peuvent intégrer jusqu'à 16 cartes graphiques Nvidia et prennent en charge des options de stockage extensibles, permettant aux entreprises de déployer rapidement des solutions IA.
📈 Les solutions IA de Cisco mettent l'accent sur l'amélioration de la sécurité, de la conformité et des capacités de traitement pour répondre aux nouveaux besoins des entreprises en matière d'applications IA.