Qwen2.5-Coder-3B-Instruct-GPTQ-Int4

3B-Parameter-Instruktions-Feinabstimmungsmodell aus der Qwen2.5-Coder-Serie

Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von großen Sprachmodellen von Qwen, speziell entwickelt für die Codegenerierung, -inferenz und -reparatur. Das Modell basiert auf Qwen2.5 und erweitert die Trainings-Token auf 5,5 Billionen, darunter Quellcode, Textcode-Basis und synthetische Daten. Qwen2.5-Coder-32B ist derzeit eines der führenden Open-Source-Code-LLMs und seine Codierfähigkeiten entsprechen denen von GPT-4o. Dieses Modell ist ein GPTQ-quantisiertes 4-Bit-Instruktions-Feinabstimmungsmodell mit 3 Milliarden Parametern von Qwen2.5-Coder und zeichnet sich durch Eigenschaften wie kausales Sprachmodell, Pre-Training- und Post-Training-Phase sowie Transformer-Architektur aus.
Website öffnen

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4 Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4 Besuchstrend

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4 Geografische Verteilung der Besuche

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4 Traffic-Quellen

Qwen2.5-Coder-3B-Instruct-GPTQ-Int4 Alternativen