Qwen1.5-110B
Primeiro modelo de código aberto com 110 bilhões de parâmetros da série Qwen1.5, com suporte multilíngue e arquitetura de decodificador Transformer eficiente.
Seleção NacionalProdutividadeInteligência ArtificialAprendizado de Máquina
O Qwen1.5-110B é o maior modelo da série Qwen1.5, com 110 bilhões de parâmetros, suporte multilíngue e arquitetura de decodificador Transformer eficiente, incluindo atenção de consulta em grupo (GQA), tornando a inferência do modelo mais eficiente. Seu desempenho em avaliações de capacidades básicas é comparável ao Meta-Llama3-70B, e se destaca em avaliações de bate-papo, incluindo MT-Bench e AlpacaEval 2.0. O lançamento deste modelo demonstra o enorme potencial de escalonamento do tamanho do modelo e sugere que melhorias de desempenho ainda maiores podem ser alcançadas através da expansão de dados e do tamanho do modelo.
Qwen1.5-110B Situação do Tráfego Mais Recente
Total de Visitas Mensais
4314278
Taxa de Rejeição
68.45%
Média de Páginas por Visita
1.7
Duração Média da Visita
00:01:08