4月7日,Kimi开放平台正式发布公告,宣布基于Moonshot AI一年来的技术积累和性能优化,对平台提供的模型推理服务价格进行调整,同时大幅下调上下文缓存价格。这一举措标志着Kimi开放平台在提升技术能力的同时,进一步优化用户体验,推动人工智能服务的普及与应用。
据Kimi开放平台官方介绍,此次价格调整得益于Moonshot AI在过去一年中在模型训练、推理加速及资源利用率优化方面的显著突破。通过持续的技术迭代,平台不仅提升了模型的处理效率和性能,还降低了运营成本。官方表示,这些成果让Kimi有能力将更多实惠回馈给用户,进一步降低企业与开发者接入大模型服务的门槛。
从调整内容来看,模型推理服务的价格普遍下调,降幅根据不同模型规格和使用场景有所差异。与此同时,上下文缓存价格也迎来显著下调,这一调整尤为引人注目,因为Kimi平台以超长上下文处理能力著称,此举将进一步提升用户在处理长文本任务时的成本效益。
Kimi开放平台自推出以来,以支持超长上下文输入(最高达200万字)为核心竞争力,广泛应用于文档分析、文献综述、代码复现等场景。此次上下文缓存价格的下调,意味着用户在处理复杂任务时将享受更低的成本。例如,对于需要频繁调用长文本数据的企业用户或开发者来说,这不仅能减少费用支出,还能提升开发效率。
一位长期使用Kimi API的开发者表示:“上下文缓存价格下调对我们来说是个大利好。之前处理大篇幅文档时成本较高,现在可以用更低的预算完成更多任务,性价比大幅提升。