Qwen2.5-Coder-1.5B-Instruct-GGUF

1,5 Milliarden Parameter umfassendes, instruktiv feinabgestimmtes Modell der Qwen2.5-Coder-Serie

Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder ist die neueste Serie von großen Sprachmodellen von Qwen, die speziell für die Codegenerierung, Code-Inferenz und Codekorrektur entwickelt wurde. Basierend auf dem leistungsstarken Qwen2.5 und durch Erhöhung der Trainings-Token auf 5,5 Billionen, einschließlich Quellcode, Textcodebasis und synthetischer Daten, ist Qwen2.5-Coder-32B zum derzeit fortschrittlichsten Open-Source-Code-Sprachmodell geworden, dessen Codierungsfähigkeiten mit GPT-4o vergleichbar sind. Dieses Modell ist eine instruktiv feinabgestimmte Version mit 1,5 Milliarden Parametern im GGUF-Format und zeichnet sich durch Eigenschaften wie kausales Sprachmodell, Pre-Training und Post-Training-Phasen sowie Transformers-Architektur aus.
Website öffnen

Qwen2.5-Coder-1.5B-Instruct-GGUF Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Qwen2.5-Coder-1.5B-Instruct-GGUF Besuchstrend

Qwen2.5-Coder-1.5B-Instruct-GGUF Geografische Verteilung der Besuche

Qwen2.5-Coder-1.5B-Instruct-GGUF Traffic-Quellen

Qwen2.5-Coder-1.5B-Instruct-GGUF Alternativen