Qwen2.5-Coder-3B-Instruct-GPTQ-Int4
3B-Parameter-Instruktions-Feinabstimmungsmodell aus der Qwen2.5-Coder-Serie
Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von großen Sprachmodellen von Qwen, speziell entwickelt für die Codegenerierung, -inferenz und -reparatur. Das Modell basiert auf Qwen2.5 und erweitert die Trainings-Token auf 5,5 Billionen, darunter Quellcode, Textcode-Basis und synthetische Daten. Qwen2.5-Coder-32B ist derzeit eines der führenden Open-Source-Code-LLMs und seine Codierfähigkeiten entsprechen denen von GPT-4o. Dieses Modell ist ein GPTQ-quantisiertes 4-Bit-Instruktions-Feinabstimmungsmodell mit 3 Milliarden Parametern von Qwen2.5-Coder und zeichnet sich durch Eigenschaften wie kausales Sprachmodell, Pre-Training- und Post-Training-Phase sowie Transformer-Architektur aus.
Qwen2.5-Coder-3B-Instruct-GPTQ-Int4 Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44