Recientemente, Moore Threads y el modelo de IA de educación multidisciplinar "Shizhe AI" anunciaron conjuntamente que han completado las pruebas de entrenamiento del modelo de gran tamaño. Con la ayuda del clúster de computación de miles de tarjetas gráficas Kuae (KUAE) de Moore Threads, Shizhe AI completó con éxito el entrenamiento de un modelo de gran tamaño de 7 mil millones de parámetros, en una semana, alcanzando la eficiencia de entrenamiento esperada y demostrando plenamente la capacidad de la plataforma nacional de entrenamiento de miles de tarjetas gráficas y cientos de miles de millones de parámetros basada en GPU.
Nota de la fuente de la imagen: La imagen fue generada por IA, y su licencia fue proporcionada por Midjourney.
Según se informa, "Shizhe AI" se fundó en 2020, su equipo central proviene de la Universidad Tsinghua y se centra en modelos de gran tamaño para la educación multidisciplinar. Desde que se abrió la prueba interna, ha acumulado más de 25.000 usuarios, admite más de 30 disciplinas y abarca más de 2000 libros de texto.
Esta prueba de entrenamiento ha verificado con éxito el potente rendimiento del clúster de computación de miles de tarjetas gráficas Kuae de Moore Threads en el entrenamiento de modelos de gran tamaño, sentando las bases para futuras innovaciones en modelos de IA educativa para ambas partes. Ambas partes continuarán trabajando en la adaptación de la inferencia de modelos de gran tamaño, optimizando la tecnología para satisfacer las necesidades de inferencia de alta frecuencia.
Liu Chunjiang, CEO de Shizhe AI, declaró: "Esta prueba de entrenamiento ha demostrado el potente rendimiento del clúster de computación de miles de tarjetas gráficas Kuae. Tenemos plena confianza en la potencia de cálculo nacional. En el futuro, Shizhe AI continuará ejecutando más negocios centrales en el clúster de computación de miles de tarjetas gráficas Kuae para proporcionar a los usuarios servicios de potencia de cálculo eficientes y estables."