O Qwen1.5-110B é o maior modelo da série Qwen1.5, com 110 bilhões de parâmetros, suporte multilíngue e arquitetura de decodificador Transformer eficiente, incluindo atenção de consulta em grupo (GQA), tornando a inferência do modelo mais eficiente. Seu desempenho em avaliações de capacidades básicas é comparável ao Meta-Llama3-70B, e se destaca em avaliações de bate-papo, incluindo MT-Bench e AlpacaEval 2.0. O lançamento deste modelo demonstra o enorme potencial de escalonamento do tamanho do modelo e sugere que melhorias de desempenho ainda maiores podem ser alcançadas através da expansão de dados e do tamanho do modelo.