A série Qwen2.5-Coder é composta por modelos específicos para código baseados na arquitetura Qwen2.5, incluindo os modelos Qwen2.5-Coder-1.5B e Qwen2.5-Coder-7B. Esses modelos foram pré-treinados em um corpus massivo de mais de 5,5 trilhões de tokens e, através de uma limpeza de dados refinada, geração de dados sintéticos escalonáveis e uma mistura equilibrada de dados, demonstram uma impressionante capacidade de geração de código, mantendo a sua generalidade. O Qwen2.5-Coder alcançou o desempenho de ponta em mais de 10 benchmarks em diversas tarefas relacionadas a código, incluindo geração, complementação, raciocínio e reparo de código, consistentemente superando modelos maiores de tamanho equivalente. O lançamento desta série não apenas impulsiona os limites da pesquisa em inteligência de código, mas também, através de sua licença, incentiva a adoção mais ampla por desenvolvedores em aplicações do mundo real.