Qwen2.5-Coder-3B-Instruct
3B-Parameter-Instruktions-Feinabstimmungsmodell der Qwen2.5-Coder-Serie
Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von großen Sprachmodellen von Qwen, die sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Basierend auf dem leistungsstarken Qwen2.5 wurde die Modellserie durch die Erhöhung der Trainingstoken auf 5,5 Billionen, einschließlich Quellcode, Text-Code-Grounding und synthetischen Daten, deutlich verbessert, was die Fähigkeiten zur Codegenerierung, -Inferenz und -Reparatur signifikant steigert. Qwen2.5-Coder-3B ist ein Modell dieser Serie mit 3,09 Milliarden Parametern, 36 Schichten, 16 Attention Heads (Q) und 2 Attention Heads (KV) sowie einer vollständigen Kontextlänge von 32.768 Token. Dieses Modell gehört zu den besten Open-Source-Code-LLMs und bietet vergleichbare Codierungsfähigkeiten wie GPT-4o, wodurch Entwicklern ein leistungsstarkes Werkzeug zur Codeunterstützung zur Verfügung gestellt wird.
Qwen2.5-Coder-3B-Instruct Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44