ChinaZ.com (站长之家) am 18. Juni berichtet: DeepSeek hat kürzlich die Veröffentlichung des Open-Source-Modells DeepSeek-Coder-V2 angekündigt. Dieses Modell übertrifft GPT-4-Turbo in Bezug auf Code- und mathematische Fähigkeiten und bietet eine deutlich erweiterte Mehrsprachigkeit und Kontextlänge.

Basierend auf der DeepSeek-V2-Modellarchitektur verwendet DeepSeek-Coder-V2 eine Mixture-of-Experts (MoE)-Architektur, die speziell für die Verbesserung der Code- und mathematischen Schlussfolgerungsfähigkeiten entwickelt wurde.

image.png

DeepSeek-Coder-V2 gehört weltweit zu den leistungsstärksten Modellen, insbesondere in Bezug auf Codegenerierung und mathematische Berechnungen. Das Modell, der zugehörige Code und die Forschungsarbeit wurden vollständig Open Source veröffentlicht und stehen für die kostenlose kommerzielle Nutzung ohne Antrag zur Verfügung. Das Modell ist in zwei Größen verfügbar: 236B Parameter und 16B Parameter, um unterschiedliche Anwendungsanforderungen zu erfüllen.

Die Unterstützung für Programmiersprachen wurde von 86 auf 338 erweitert, um den Anforderungen vielfältiger Entwicklungsprojekte gerecht zu werden. Gleichzeitig wurde die Kontextlänge von 16K auf 128K erweitert, wodurch längere Eingaben verarbeitet werden können. DeepSeek-Coder-V2 bietet auch einen API-Dienst mit 32K Kontextlänge zum gleichen Preis wie DeepSeek-V2.

In Standard-Benchmark-Tests übertrifft DeepSeek-Coder-V2 einige proprietäre Modelle in Bereichen wie Codegenerierung, Codevervollständigung, Codereparatur und mathematischem Schlussfolgern. Benutzer können verschiedene Versionen von DeepSeek-Coder-V2 herunterladen, darunter Basis- und Anweisungsversionen sowie Versionen mit unterschiedlicher Parameteranzahl.

DeepSeek bietet auch eine Online-Testumgebung und einen GitHub-Link sowie einen technischen Bericht, um Benutzern das Verständnis und die Nutzung von DeepSeek-Coder-V2 zu erleichtern. Die Veröffentlichung dieses Modells bietet der Open-Source-Community nicht nur leistungsstarke Code- und mathematische Verarbeitungsfunktionen, sondern trägt auch zur Weiterentwicklung und Anwendung der entsprechenden Technologien bei.

Projekt-Adresse: https://top.aibase.com/tool/deepseek-coder-v2

Online-Test: https://chat.deepseek.com/sign_in