Qwen2.5-Coder-32B-Instruct-GPTQ-Int4 ist ein auf Qwen2.5 basierendes, großes Sprachmodell zur Codegenerierung mit 32,5 Milliarden Parametern. Es unterstützt die Verarbeitung langer Texte mit bis zu 128.000 Tokens. Das Modell zeigt deutliche Verbesserungen in der Codegenerierung, -inferenz und -reparatur und ist derzeit eines der führenden Open-Source-Sprachmodelle für Code. Es verbessert nicht nur die Codierfähigkeiten, sondern behält auch seine Stärken in Mathematik und allgemeinen Fähigkeiten.