Récemment, Moore Threads et « Shizhe AI », un grand modèle d'IA pour l'éducation multidisciplinaire, ont annoncé avoir terminé les tests d'entraînement du grand modèle. S'appuyant sur le cluster de calcul Kuai'e (KUAE) de Moore Threads composé de milliers de cartes graphiques, Shizhe AI a réussi à entraîner un grand modèle de 7 milliards de paramètres de manière intensive en une semaine. L'efficacité de l'entraînement a atteint les attentes, démontrant pleinement les capacités de la plateforme de formation nationale à plusieurs milliers de cartes graphiques et de plusieurs centaines de milliards de paramètres.
Source de l'image : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
Selon les informations disponibles, « Shizhe AI » a été créé en 2020. Son équipe principale est issue de l'Université Tsinghua et se concentre sur les grands modèles d'éducation multidisciplinaire. Depuis le début de sa phase de test ouvert, il compte plus de 25 000 utilisateurs, prend en charge plus de 30 disciplines et couvre plus de 2000 manuels scolaires.
Ce test d'entraînement a permis de vérifier avec succès les performances exceptionnelles du cluster de calcul Kuai'e de Moore Threads pour l'entraînement de grands modèles, jetant les bases de futures innovations dans le domaine des grands modèles d'IA pour l'éducation. Les deux parties continueront à travailler sur l'adaptation du grand modèle pour l'inférence, à optimiser les technologies afin de répondre aux besoins d'inférence à haute fréquence.
Liu Chunjiang, PDG de Shizhe AI, a déclaré : « Ce test d'entraînement a démontré les performances exceptionnelles du cluster de calcul Kuai'e. Nous avons toute confiance dans la puissance de calcul nationale. À l'avenir, Shizhe AI continuera à exécuter davantage de tâches essentielles sur le cluster de calcul Kuai'e afin de fournir aux utilisateurs des services de puissance de calcul efficaces et stables. »