Anthropic API 近日推出了提示缓存功能,开发人员现在可以在API调用之间缓存常用的上下文信息。通过提示缓存,客户能够为Claude模型提供更多的背景知识和示例输出,同时显著降低长提示的成本,减少高达90%的费用,降低高达85%的延迟。
该功能目前已在Claude3.5Sonnet和Claude3Haiku的公开测试版中可用,未来还将支持Claude3Opus。
提示缓存功能特别适用于以下场景:当需要在多次请求中反复引用大量提示上下文时,如对话代理中减少长对话的成本和延迟,尤其是在包含复杂指令或文档上传的情况下;编码助手可以通过在提示中保留代码库的汇总版本来改进自动完成和代码库问答;处理大型文档时,提示缓存能够嵌入完整的长篇材料而不会增加响应时间;此外,对于涉及多轮工具调用和迭代更改的代理搜索和工具使用场景,提示缓存也能显著提升性能。
提示缓存的定价取决于缓存的输入令牌数量以及使用频率。写入缓存的成本比基本输入令牌价格高出25%,而使用缓存内容的成本则大幅降低,仅为基本输入令牌价格的10%。
据悉,Notion 作为Anthropic API的客户,已将提示缓存功能集成到其人工智能助手Notion AI中。通过降低成本和提高速度,Notion优化了内部运营,并为用户带来了更高级、更快速的体验。