Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4

0,5 Milliarden Parameter großes Codegenerierungsmodell der Qwen2.5-Coder-Serie

Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von großen Sprachmodellen von Qwen, die sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Basierend auf dem leistungsstarken Qwen2.5 wurde das Modell mit 5,5 Billionen Zeilen Quellcode, Textcode-Basis und synthetischen Daten trainiert und stellt den neuesten Stand der Technik bei Open-Source-Code-Sprachmodellen dar. Das Modell ist nicht nur in Bezug auf die Programmierfähigkeit mit GPT-4o vergleichbar, sondern behält auch seine Vorteile in Mathematik und allgemeinen Fähigkeiten. Das Modell Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 ist ein mit GPTQ quantisiertes 4-Bit-Instruktions-Tuning-Modell mit den Eigenschaften eines kausalen Sprachmodells, Pretraining und Finetuning sowie einer Transformers-Architektur.
Website öffnen

Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 Besuchstrend

Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 Geografische Verteilung der Besuche

Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 Traffic-Quellen

Qwen2.5-Coder-0.5B-Instruct-GPTQ-Int4 Alternativen