Qwen1.5-110B

Primeiro modelo de código aberto com 110 bilhões de parâmetros da série Qwen1.5, com suporte multilíngue e arquitetura de decodificador Transformer eficiente.

Seleção NacionalProdutividadeInteligência ArtificialAprendizado de Máquina
O Qwen1.5-110B é o maior modelo da série Qwen1.5, com 110 bilhões de parâmetros, suporte multilíngue e arquitetura de decodificador Transformer eficiente, incluindo atenção de consulta em grupo (GQA), tornando a inferência do modelo mais eficiente. Seu desempenho em avaliações de capacidades básicas é comparável ao Meta-Llama3-70B, e se destaca em avaliações de bate-papo, incluindo MT-Bench e AlpacaEval 2.0. O lançamento deste modelo demonstra o enorme potencial de escalonamento do tamanho do modelo e sugere que melhorias de desempenho ainda maiores podem ser alcançadas através da expansão de dados e do tamanho do modelo.
Abrir Site

Qwen1.5-110B Situação do Tráfego Mais Recente

Total de Visitas Mensais

4314278

Taxa de Rejeição

68.45%

Média de Páginas por Visita

1.7

Duração Média da Visita

00:01:08

Qwen1.5-110B Tendência de Visitas

Qwen1.5-110B Distribuição Geográfica das Visitas

Qwen1.5-110B Fontes de Tráfego

Qwen1.5-110B Alternativas