先日、ムーア・スレッドと全学科教育AI大規模言語モデル「師者AI」は、大規模言語モデルのトレーニングテストを完了したと発表しました。
ムーア・スレッドの夸娥(KUAE)千枚GPUクラスタを活用し、「師者AI」は70億パラメーターの大規模言語モデルの高強度トレーニングを1週間で無事に完了しました。トレーニング効率は期待通りで、国産フル機能GPUによる千枚規模、千億パラメーター規模のトレーニングプラットフォームの能力を十分に示しました。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
「師者AI」は2020年に設立され、清華大学出身の核心メンバーによって構成されています。全学科を網羅した教育用大規模言語モデルに特化しており、公開テスト開始以来、2万5千人を超えるユーザーを獲得し、30以上の学科の知識をサポートし、2000冊以上の教科書を網羅しています。
今回のトレーニングテストは、ムーア・スレッドの夸娥千枚GPUクラスタの大規模言語モデルトレーニングにおける強力な性能を検証し、両者の今後の教育AI大規模言語モデルにおける革新の基礎を築きました。両者は今後、大規模言語モデルの推論における適合作業を進め、技術を最適化することで、高頻度の推論需要に対応していきます。
師者大規模言語モデルのCEOである劉春江氏は次のように述べています。「今回のトレーニングテストは、夸娥千枚GPUクラスタの強力な性能を示しました。私たちは国産の計算能力に大きな自信を持っています。今後、「師者AI」は夸娥千枚GPUクラスタ上でより多くのコアビジネスを実行し、ユーザーに効率的で安定した計算能力サービスを提供していきます。」