XVERSE-MoE-A36B

Modelo de linguagem grande multilíngue, suporta geração de texto em diversos domínios.

Produto ComumProgramaçãoMultilíngueModelo de Linguagem Grande
XVERSE-MoE-A36B é um modelo de linguagem grande multilíngue desenvolvido pela Yuanxiang Technology de Shenzhen. Ele utiliza a arquitetura de Modelo de Especialista Misto (MoE), com um total de 255,4 bilhões de parâmetros e 36 bilhões de parâmetros ativos. O modelo suporta mais de 40 idiomas, incluindo chinês, inglês, russo e espanhol, com desempenho excepcional em chinês e inglês. Treinado com amostras de 8K tokens, e por meio de uma proporção de amostragem de dados refinada e uma estratégia de comutação de dados dinâmica, garante alta qualidade e diversidade. Além disso, o modelo passou por otimizações personalizadas para a arquitetura MoE, aprimorando a eficiência computacional e a taxa de transferência geral.
Abrir Site

XVERSE-MoE-A36B Situação do Tráfego Mais Recente

Total de Visitas Mensais

474564576

Taxa de Rejeição

36.20%

Média de Páginas por Visita

6.1

Duração Média da Visita

00:06:34

XVERSE-MoE-A36B Tendência de Visitas

XVERSE-MoE-A36B Distribuição Geográfica das Visitas

XVERSE-MoE-A36B Fontes de Tráfego

XVERSE-MoE-A36B Alternativas