Em 25 de fevereiro, a Alibaba anunciou o lançamento do modelo de inferência QwQ-Max-Preview, baseado no Qwen2.5-Max, e planeja lançar em código aberto seu mais recente modelo de inferência QwQ-Max e Qwen2.5-Max.
O QwQ-Max-Preview lançado é uma versão de pré-visualização. A Alibaba afirmou que a versão oficial será lançada em breve e será totalmente de código aberto sob a licença Apache2.0. Diferentemente do passado, este lançamento de código aberto inclui não apenas o próprio modelo, mas também versões menores, como o QwQ-32B, que podem ser implantadas em dispositivos locais, promovendo ainda mais a popularização e aplicação da tecnologia de IA.
De acordo com a avaliação do LiveCodeBench, o desempenho do QwQ-Max-Preview é comparável ao o1-medium da OpenAI e superior ao DeepSeek R1. Este resultado demonstra um avanço significativo nos modelos de inferência da Alibaba, especialmente em termos de velocidade de inferência e precisão na geração de código. A Alibaba também lançou o domínio qwen.ai, onde os usuários podem acessar e usar diretamente os modelos de inferência mais recentes.
Espera-se que os modelos QwQ-Max e Qwen2.5-Max, agora de código aberto, forneçam aos desenvolvedores e empresas uma capacidade de inferência mais robusta, especialmente na geração de código, processamento multimodal e resolução de tarefas complexas.
Esta iniciativa de código aberto da Alibaba não é apenas uma resposta rápida às necessidades do mercado, mas também um passo importante em sua estratégia no campo da IA. Ao disponibilizar o código-fonte integralmente, a Alibaba não apenas fornece ferramentas poderosas aos desenvolvedores, mas também estabelece a base para uma ampla aplicação e popularização da tecnologia de IA. Com o lançamento oficial do QwQ-Max e Qwen2.5-Max, a Alibaba espera manter sua posição de liderança no campo da IA e impulsionar o desenvolvimento do setor.