DeepSeek-Coder-V2

ओपन सोर्स कोड भाषा मॉडल, प्रोग्रामिंग बुद्धिमत्ता को बढ़ाता है।

प्रीमियम नया उत्पादप्रोग्रामिंगकोड निर्माणप्रोग्रामिंग सहायता
DeepSeek-Coder-V2 एक ओपन सोर्स Mixture-of-Experts (MoE) कोड भाषा मॉडल है, जिसका प्रदर्शन GPT4-Turbo के बराबर है, और कोड-विशिष्ट कार्यों में उत्कृष्ट प्रदर्शन करता है। इसे DeepSeek-Coder-V2-Base के आधार पर, 6 ट्रिलियन टोकन के उच्च-गुणवत्ता वाले बहु-स्रोत डेटासेट के साथ आगे प्रशिक्षित किया गया है, जिससे कोडिंग और गणितीय तर्क क्षमता में उल्लेखनीय वृद्धि हुई है, जबकि सामान्य भाषा कार्यों में प्रदर्शन बनाए रखा गया है। समर्थित प्रोग्रामिंग भाषाएँ 86 से बढ़कर 338 हो गई हैं, और संदर्भ लंबाई 16K से बढ़कर 128K हो गई है।
वेबसाइट खोलें

DeepSeek-Coder-V2 नवीनतम ट्रैफ़िक स्थिति

मासिक कुल विज़िट

474564576

बाउंस दर

36.20%

प्रति विज़िट औसत पृष्ठ

6.1

औसत विज़िट अवधि

00:06:34

DeepSeek-Coder-V2 विज़िट प्रवृत्ति

DeepSeek-Coder-V2 विज़िट भौगोलिक वितरण

DeepSeek-Coder-V2 ट्रैफ़िक स्रोत

DeepSeek-Coder-V2 विकल्प