DeepSeek-Coder-V2-Lite-Instruct

Open-Source-Code-Sprachmodell, unterstützt mehrere Programmiersprachen.

Normales ProduktProgrammierungCodegenerierungMathematische Argumentation
DeepSeek-Coder-V2 ist ein Open-Source Mixture-of-Experts Code-Sprachmodell, dessen Leistung mit GPT4-Turbo vergleichbar ist und das bei code-spezifischen Aufgaben hervorragende Ergebnisse liefert. Durch zusätzliches Pretraining mit 6 Billionen Token wurden die Fähigkeiten in der Kodierung und mathematischen Argumentation verbessert, während die Leistung bei allgemeinen Sprach-Aufgaben erhalten blieb. Im Vergleich zu DeepSeek-Coder-33B zeigt es signifikante Fortschritte bei code-bezogenen Aufgaben, Schlussfolgerungen und allgemeinen Fähigkeiten. Darüber hinaus wurde die Unterstützung von Programmiersprachen von 86 auf 338 erweitert, und die Kontextlänge von 16K auf 128K erhöht.
Website öffnen

DeepSeek-Coder-V2-Lite-Instruct Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

DeepSeek-Coder-V2-Lite-Instruct Besuchstrend

DeepSeek-Coder-V2-Lite-Instruct Geografische Verteilung der Besuche

DeepSeek-Coder-V2-Lite-Instruct Traffic-Quellen

DeepSeek-Coder-V2-Lite-Instruct Alternativen