Elon Musk a récemment annoncé que sa startup d'intelligence artificielle, xAI, lancerait en août son modèle linguistique révolutionnaire, Grok-2, annonçant ainsi des fonctionnalités d'IA encore plus avancées. Bien que Grok-2 reste encore mystérieux, Musk a déjà commencé à promouvoir son successeur, Grok-3.

Lorsqu'il évoque la recherche et le développement en IA, Musk souligne l'importance des ensembles de données et la difficulté de nettoyer les données des grands modèles linguistiques (LLM). Il n'hésite pas non plus à pointer les défis liés à la sortie de formation des modèles OpenAI. Il a fièrement révélé que le projet Grok-3 de xAI a utilisé la somme impressionnante de 100 000 puces AI haute performance Nvidia H100 pour son entraînement. Ce chiffre met en lumière la puissance de xAI dans le domaine de la recherche en IA et laisse présager une expérience « extraordinaire » sans précédent pour Grok-3.

微信截图_20240702150255.png

La puce Nvidia H100, conçue pour traiter les données des grands modèles linguistiques (LLM), coûte entre 30 000 et 40 000 dollars pièce (soit environ 21 900 à 29 200 euros). L'investissement de xAI dans 100 000 puces représente donc un coût astronomique, estimé entre 3 et 4 milliards de dollars (environ 2,7 à 3,6 milliards d'euros).

Il est intéressant de noter que Musk avait précédemment indiqué que le budget de Tesla pour l'achat de puces Nvidia cette année se situait également dans cette fourchette, ce qui laisse supposer que xAI pourrait avoir recours aux ressources de Tesla.

Avec le lancement imminent de Grok-2 et la préparation active de Grok-3, xAI, sous la direction de Musk, est en train de mener une nouvelle révolution dans le domaine de l'intelligence artificielle.