DeepSeek-V2-Chat
一款高效经济的语言模型,具有强大的专家混合特性。
普通产品编程语言模型混合专家
DeepSeek-V2是一个由236B参数构成的混合专家(MoE)语言模型,它在保持经济训练和高效推理的同时,激活每个token的21B参数。与前代DeepSeek 67B相比,DeepSeek-V2在性能上更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并提升了最大生成吞吐量至5.76倍。该模型在8.1万亿token的高质量语料库上进行了预训练,并通过监督式微调(SFT)和强化学习(RL)进一步优化,使其在标准基准测试和开放式生成评估中表现出色。
DeepSeek-V2-Chat 最新流量情况
月总访问量
19075321
跳出率
45.07%
平均页面访问数
5.5
平均访问时长
00:05:32