Qwen2.5-Coder-0.5B-Instruct-AWQ
0,5 Milliarden Parameter großes Codegenerierungsmodell der Qwen2.5-Coder-Serie
Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von Qwen-Large-Language-Modellen, die sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Basierend auf den leistungsstarken Fähigkeiten von Qwen2.5 wurde das Modell durch Erweiterung der Trainings-Token auf 5,5 Billionen, einschließlich Quellcode, Textcode-Basis und synthetischen Daten, trainiert. Qwen2.5-Coder-32B ist derzeit eines der fortschrittlichsten Open-Source Code-LLMs und seine Codierfähigkeiten entsprechen denen von GPT-4o. Dieses Modell ist eine auf 4 Bit mit AWQ quantisierte, instruktionsoptimierte Version mit 0,5 Milliarden Parametern. Es zeichnet sich durch kausale Sprachmodellierung, Pre- und Post-Training sowie die Transformers-Architektur aus.
Qwen2.5-Coder-0.5B-Instruct-AWQ Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44