Kürzlich gaben Moore Threads und das auf alle Fächer ausgerichtete KI-Großmodell „Shizhe AI“ bekannt, dass die Tests zum Training des Großmodells abgeschlossen wurden. Mit dem Moore Threads Kuai E (KUAE) Tausend-Karten-Hochleistungsrechencluster konnte Shizhe AI erfolgreich ein 7-Milliarden-Parameter-Großmodell mit hoher Intensität trainieren. Der Prozess dauerte eine Woche und erreichte die erwartete Effizienz. Dies demonstriert eindrucksvoll die Leistungsfähigkeit der inländischen, voll funktionsfähigen GPU-Plattform mit Tausenden von Karten für das Training von Modellen mit Billionen von Parametern.

Roboter Künstliche Intelligenz KI

Bildquelle: Das Bild wurde mit KI generiert und stammt von Midjourney.

Shizhe AI wurde 2020 gegründet. Das Kernteam stammt von der Tsinghua-Universität und konzentriert sich auf ein auf alle Fächer ausgerichtetes großes Sprachmodell für Bildungszwecke. Seit dem Beginn der offenen Beta-Testphase hat es über 25.000 Nutzer gewonnen und unterstützt über 30 Fächer mit mehr als 2000 Lehrbüchern.

Der erfolgreiche Trainingstest bestätigt die hohe Leistung des Moore Threads Kuai E Tausend-Karten-Hochleistungsrechenclusters beim Training großer Sprachmodelle und legt den Grundstein für zukünftige Innovationen beider Partner im Bereich der KI-gestützten Bildung. Die beiden Unternehmen werden die Anpassungsarbeiten für das Inferencing von großen Sprachmodellen fortsetzen, die Technologie optimieren und so den Anforderungen an hochfrequentes Inferencing gerecht werden.

Liu Chunjiang, CEO von Shizhe AI, erklärte: „Der Trainingstest hat die beeindruckende Leistung des Kuai E Tausend-Karten-Hochleistungsrechenclusters gezeigt. Wir sind zuversichtlich in die heimische Rechenleistung. Künftig wird Shizhe AI weitere Kernprozesse auf dem Kuai E Tausend-Karten-Hochleistungsrechencluster ausführen und den Nutzern effiziente und stabile Rechenleistungen bieten.“