站长之家(ChinaZ.com) 6月18日 消息:DeepSeek 最近宣布发布了一款名为 DeepSeek-Coder-V2的开源模型,这一模型在代码和数学能力方面超越了 GPT-4-Turbo,并在多语言支持和上下文处理长度上有了显著扩展。基于 DeepSeek-V2的模型结构,DeepSeek-Coder-V2采用专家混合(MoE)架构,专门设计用于增强代码和数学推理能力。
DeepSeek-Coder-V2的性能在全球范围内名列前茅,其代码生成和数学算术能力尤为突出。这一模型及其相关代码、论文已全部开源,供免费商用使用,无需申请。模型提供两种规模:236B 参数和16B 参数,以满足不同的应用需求。
在多语言支持方面,DeepSeek-Coder-V2能够支持的编程语言从86种扩展到338种,适应更多样化的开发需求。同时,它支持的上下文长度从16K扩展到128K,能够处理更长的输入内容。DeepSeek-Coder-V2还提供 API 服务,支持32K上下文,价格与 DeepSeek-V2一致。
在标准的基准测试中,DeepSeek-Coder-V2在代码生成、代码补全、代码修复和数学推理等方面优于一些闭源模型。用户可以下载不同版本的 DeepSeek-Coder-V2模型,包括基础版和指令版,以及不同参数规模的版本。
DeepSeek 还提供了在线体验平台和 GitHub 链接,以及技术报告,方便用户进一步了解和使用 DeepSeek-Coder-V2。这一模型的发布不仅为开源社区带来了强大的代码和数学处理能力,也有助于推动相关技术的发展和应用。
项目地址:https://top.aibase.com/tool/deepseek-coder-v2
在线体验:https://chat.deepseek.com/sign_in