Qwen2.5-Coder é a mais recente série de modelos de linguagem grande Qwen, focada em geração de código, raciocínio de código e correção de código. Com base na poderosa capacidade do Qwen2.5, através do treinamento expandido de tokens para 5,5 trilhões, incluindo código-fonte, base de código de texto, dados sintéticos, etc., o Qwen2.5-Coder-32B tornou-se o LLM de código aberto mais avançado atualmente, com capacidade de codificação comparável ao GPT-4o. Este modelo é uma versão de 0,5B de parâmetros ajustada com quantização AWQ de 4 bits, apresentando características como modelo de linguagem causal, pré-treinamento e pós-treinamento, e arquitetura transformers.