Lors d'un récent lancement, DataDirect Networks (DDN) a annoncé son dernier système de stockage objet Infinia 2.0, spécialement conçu pour l'entraînement et l'inférence de l'intelligence artificielle (IA). Ce système affirme pouvoir accélérer les données IA jusqu'à 100 fois et améliorer l'efficacité des coûts des datacenters cloud jusqu'à 10 fois, suscitant un vif intérêt de nombreux secteurs.

Alex Bouzari, PDG et co-fondateur de DDN, a déclaré : « 85 entreprises du classement Global 500 utilisent la plateforme d'intelligence de données de DDN pour exécuter leurs applications d'IA et de calcul haute performance (HPC). Infinia aidera les clients à accélérer l'entraînement des modèles et à obtenir des informations en temps réel dans le domaine de l'analyse de données et des frameworks d'IA, tout en assurant l'adaptabilité future de l'efficacité des GPU et de la consommation d'énergie. »

Robot IA Intelligence Artificielle 222

Source : Image générée par IA, fournisseur de services d'autorisation d'images : Midjourney

Paul Bloch, co-fondateur et président de DDN, a ajouté : « Notre plateforme est déjà déployée dans certaines des plus grandes usines d'IA et des environnements cloud au monde, démontrant sa capacité à prendre en charge les opérations IA critiques. » Il est entendu que xAI d'Elon Musk est également l'un des clients de DDN.

Dans la conception d'Infinia 2.0, le stockage de données IA est au cœur du système. Sven Oehme, directeur technique, a souligné : « Les charges de travail IA nécessitent une intelligence de données en temps réel, l'élimination des goulots d'étranglement, l'accélération des workflows et une extension transparente dans des environnements complexes d'énumération de modèles, de pré-entraînement et de post-entraînement, de recherche d'informations augmentée (RAG), d'IA agentive et multimodaux. » Infinia 2.0 vise à maximiser la valeur de l'IA tout en fournissant des services de données en temps réel, une gestion multi-locataire efficace, une automatisation intelligente et une architecture native IA robuste.

Le système possède des caractéristiques telles que le déplacement de données piloté par les événements, le multi-locataire, une conception indépendante du matériel, garantissant un temps de fonctionnement de 99,999 %, et permettant une réduction des données en ligne jusqu'à 10 fois, un codage d'effacement de réseau tolérant aux pannes et une qualité de service (QoS) automatisée. Infinia 2.0 est combiné avec Nemo, les microservices NIMS, les GPU, Bluefield 3 DPU et le réseau Spectrum-X de Nvidia pour accélérer l'efficacité du pipeline de données IA.

DDN affirme qu'Infinia peut atteindre une bande passante de TBps, une latence inférieure à la milliseconde, des performances largement supérieures à celles d'AWS S3 Express. Parmi les autres paramètres remarquables, on peut citer une amélioration de 100 fois de l'accélération des données IA, de la vitesse de traitement des charges de travail IA, du traitement des métadonnées et du traitement des listes d'objets, sur la base de tests de référence indépendants, ainsi qu'une vitesse 25 fois plus rapide pour l'entraînement des modèles IA et les requêtes d'inférence.

Le système Infinia prend en charge l'extensibilité de la taille de TB à EB, pouvant prendre en charge plus de 100 000 GPU et 1 million de clients simultanés, offrant une base solide pour l'innovation IA à grande échelle. DDN souligne que son système offre des performances exceptionnelles dans les déploiements de datacenters et de cloud réels, permettant une efficacité et des économies de coûts inégalées dans une plage allant de 10 à plus de 100 000 GPU.

Charles Liang, PDG de Supermicro, a déclaré : « En combinant la plateforme d'intelligence de données Infinia 2.0 de DDN avec les solutions de serveurs haut de gamme de Supermicro, les deux entreprises ont collaboré à la construction de l'un des plus grands datacenters IA au monde. » Ce partenariat pourrait être lié à l'extension du datacenter Colossus de xAI.