DeepSeek-Coder-V2
ओपन सोर्स कोड भाषा मॉडल, प्रोग्रामिंग बुद्धिमत्ता को बढ़ाता है।
प्रीमियम नया उत्पादप्रोग्रामिंगकोड निर्माणप्रोग्रामिंग सहायता
DeepSeek-Coder-V2 एक ओपन सोर्स Mixture-of-Experts (MoE) कोड भाषा मॉडल है, जिसका प्रदर्शन GPT4-Turbo के बराबर है, और कोड-विशिष्ट कार्यों में उत्कृष्ट प्रदर्शन करता है। इसे DeepSeek-Coder-V2-Base के आधार पर, 6 ट्रिलियन टोकन के उच्च-गुणवत्ता वाले बहु-स्रोत डेटासेट के साथ आगे प्रशिक्षित किया गया है, जिससे कोडिंग और गणितीय तर्क क्षमता में उल्लेखनीय वृद्धि हुई है, जबकि सामान्य भाषा कार्यों में प्रदर्शन बनाए रखा गया है। समर्थित प्रोग्रामिंग भाषाएँ 86 से बढ़कर 338 हो गई हैं, और संदर्भ लंबाई 16K से बढ़कर 128K हो गई है।
DeepSeek-Coder-V2 नवीनतम ट्रैफ़िक स्थिति
मासिक कुल विज़िट
474564576
बाउंस दर
36.20%
प्रति विज़िट औसत पृष्ठ
6.1
औसत विज़िट अवधि
00:06:34