Nvidia a récemment dévoilé sa nouvelle plateforme Blackwell et a présenté ses performances initiales lors du benchmark MLPerf Training 4.1. Selon les résultats des tests, Blackwell a doublé les performances de la plateforme Hopper précédente sur certains aspects, un résultat qui a suscité un vif intérêt dans le secteur.

image.png

Lors du benchmark MLPerf Training 4.1, la plateforme Blackwell a atteint des performances par GPU 2,2 fois supérieures à celles de Hopper pour le réglage fin de la tâche Llama270B (LLM, grands modèles linguistiques), et le double pour le pré-entraînement de GPT-3175B. De plus, sur d'autres benchmarks comme l'entraînement de Stable Diffusion v2, la nouvelle génération Blackwell a surpassé son prédécesseur avec un avantage de 1,7 fois.

Il est important de noter que, bien que Hopper continue de progresser, ses performances en pré-entraînement des modèles linguistiques ont également augmenté de 1,3 fois par rapport à la précédente série de benchmarks MLPerf Training. Cela démontre la progression continue de la technologie Nvidia. Lors du récent benchmark GPT-3175B, Nvidia a soumis 11 616 GPU Hopper, établissant un nouveau record d'extensibilité.

Concernant les détails techniques de Blackwell, Nvidia a indiqué que la nouvelle architecture utilise des Tensor Cores optimisés et une mémoire haute bande passante plus rapide. Cela permet d'exécuter le benchmark GPT-3175B avec seulement 64 GPU, alors que la plateforme Hopper nécessitait 256 GPU pour atteindre les mêmes performances.

Lors de la présentation, Nvidia a également souligné les améliorations de performances apportées par les mises à jour logicielles et réseau pour la génération Hopper, et prévoit que Blackwell continuera de s'améliorer avec les soumissions futures. De plus, Nvidia prévoit de lancer l'année prochaine le prochain accélérateur AI, Blackwell Ultra, qui devrait offrir plus de mémoire et une puissance de calcul accrue.

Blackwell a également fait ses débuts en septembre dernier lors du benchmark MLPerf Inference v4.1. En matière d'inférence IA, ses performances ont atteint un résultat étonnant, soit quatre fois plus par GPU que le H100, notamment avec une précision FP4 inférieure. Cette nouvelle tendance vise à répondre à la croissance des besoins de calcul intelligents pour les chatbots à faible latence et les modèles d'intelligence artificielle comme le modèle o1 d'OpenAI.

Points clés :

- 🚀 ** La plateforme Nvidia Blackwell double les performances en entraînement IA, réécrivant les normes du secteur !**

- 📈 ** Lors du benchmark GPT-3175B, Blackwell n'a besoin que de 64 GPU, améliorant considérablement l'efficacité !**

- 🔍 ** Blackwell Ultra sera lancé l'année prochaine, offrant une mémoire et une puissance de calcul supérieures !**