La série Qwen2.5-Coder est une série de modèles spécifiques au code basés sur l'architecture Qwen2.5, comprenant les modèles Qwen2.5-Coder-1.5B et Qwen2.5-Coder-7B. Ces modèles ont été pré-entraînés sur un corpus massif de plus de 5,5 billions de jetons, et grâce à un nettoyage minutieux des données, une génération de données synthétiques évolutive et un mélange équilibré de données, ils affichent des capacités de génération de code impressionnantes tout en conservant une grande généralité. Qwen2.5-Coder a atteint des performances de pointe sur plus de 10 benchmarks dans diverses tâches liées au code, notamment la génération, la complétion, l'inférence et la correction de code, surpassant systématiquement des modèles plus grands de taille équivalente. Le lancement de cette série non seulement repousse les limites de la recherche sur l'intelligence du code, mais encourage également une adoption plus large par les développeurs dans des applications du monde réel grâce à sa licence permissive.