Recentemente, a Moore Threads e o modelo de IA de educação multidisciplinar "Shizhe AI" anunciaram conjuntamente a conclusão dos testes de treinamento do grande modelo. Apoiado no cluster de computação de milhares de GPUs KuaiE (KUAE) da Moore Threads, o Shizhe AI completou com sucesso o treinamento de alto desempenho de um grande modelo de 7 bilhões de parâmetros em uma semana, atingindo a eficiência esperada e demonstrando plenamente a capacidade da plataforma de treinamento nacional de milhares de GPUs de alta performance para modelos de centenas de bilhões de parâmetros.
Observação da fonte: A imagem foi gerada por IA, com direitos de uso concedidos pela Midjourney.
Segundo informações, o "Shizhe AI" foi fundado em 2020, com equipe central formada por membros da Universidade Tsinghua, focando em modelos de IA para educação multidisciplinar. Desde o início dos testes abertos, já conta com mais de 25.000 usuários, suportando mais de 30 disciplinas e abrangendo mais de 2.000 livros didáticos.
Este teste de treinamento bem-sucedido validou o poderoso desempenho do cluster de computação KuaiE de milhares de GPUs da Moore Threads no treinamento de grandes modelos, estabelecendo uma base para a inovação futura de ambos os lados em modelos de IA para educação. As partes continuarão a trabalhar na adaptação de inferência de grandes modelos, otimizando a tecnologia para atender às necessidades de inferência de alta frequência.
Liu Chunjiang, CEO do Shizhe AI, afirmou: "Este teste de treinamento demonstrou o poderoso desempenho do cluster de computação KuaiE de milhares de GPUs. Temos plena confiança na capacidade de computação nacional. No futuro, o Shizhe AI continuará a executar mais operações essenciais no cluster de computação KuaiE de milhares de GPUs, fornecendo aos usuários serviços de computação eficientes e estáveis."