Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4
0,5 Milliarden Parameter großes Codegenerierungsmodell der Qwen2.5-Coder-Serie
Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von großen Sprachmodellen von Qwen, die sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Basierend auf dem leistungsstarken Qwen2.5 wurde das Modell mit 5,5 Billionen Zeilen Quellcode, Textcode-Basis und synthetischen Daten trainiert und stellt den neuesten Stand der Technik bei Open-Source-Code-Sprachmodellen dar. Das Modell ist nicht nur in Bezug auf die Programmierfähigkeit mit GPT-4o vergleichbar, sondern behält auch seine Vorteile in Mathematik und allgemeinen Fähigkeiten. Das Modell Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 ist ein mit GPTQ quantisiertes 4-Bit-Instruktions-Tuning-Modell mit den Eigenschaften eines kausalen Sprachmodells, Pretraining und Finetuning sowie einer Transformers-Architektur.
Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44