Qwen2.5-Coder-0.5B-Instruct-AWQ

0,5 Milliarden Parameter großes Codegenerierungsmodell der Qwen2.5-Coder-Serie

Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von Qwen-Large-Language-Modellen, die sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Basierend auf den leistungsstarken Fähigkeiten von Qwen2.5 wurde das Modell durch Erweiterung der Trainings-Token auf 5,5 Billionen, einschließlich Quellcode, Textcode-Basis und synthetischen Daten, trainiert. Qwen2.5-Coder-32B ist derzeit eines der fortschrittlichsten Open-Source Code-LLMs und seine Codierfähigkeiten entsprechen denen von GPT-4o. Dieses Modell ist eine auf 4 Bit mit AWQ quantisierte, instruktionsoptimierte Version mit 0,5 Milliarden Parametern. Es zeichnet sich durch kausale Sprachmodellierung, Pre- und Post-Training sowie die Transformers-Architektur aus.
Website öffnen

Qwen2.5-Coder-0.5B-Instruct-AWQ Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Qwen2.5-Coder-0.5B-Instruct-AWQ Besuchstrend

Qwen2.5-Coder-0.5B-Instruct-AWQ Geografische Verteilung der Besuche

Qwen2.5-Coder-0.5B-Instruct-AWQ Traffic-Quellen

Qwen2.5-Coder-0.5B-Instruct-AWQ Alternativen