XVERSE-MoE-A36B
Modelo de linguagem grande multilíngue, suporta geração de texto em diversos domínios.
Produto ComumProgramaçãoMultilíngueModelo de Linguagem Grande
XVERSE-MoE-A36B é um modelo de linguagem grande multilíngue desenvolvido pela Yuanxiang Technology de Shenzhen. Ele utiliza a arquitetura de Modelo de Especialista Misto (MoE), com um total de 255,4 bilhões de parâmetros e 36 bilhões de parâmetros ativos. O modelo suporta mais de 40 idiomas, incluindo chinês, inglês, russo e espanhol, com desempenho excepcional em chinês e inglês. Treinado com amostras de 8K tokens, e por meio de uma proporção de amostragem de dados refinada e uma estratégia de comutação de dados dinâmica, garante alta qualidade e diversidade. Além disso, o modelo passou por otimizações personalizadas para a arquitetura MoE, aprimorando a eficiência computacional e a taxa de transferência geral.
XVERSE-MoE-A36B Situação do Tráfego Mais Recente
Total de Visitas Mensais
474564576
Taxa de Rejeição
36.20%
Média de Páginas por Visita
6.1
Duração Média da Visita
00:06:34