2024 年 7 月 10 日 —— Anthropic公司今日宣布,其AI开发平台已推出新功能,旨在简化AI应用程序的开发流程。新功能包括在Anthropic控制台中生成、测试和评估提示的能力,以及自动生成测试用例和比较输出的功能。
现在编写出色的提示非常简单,只需向 Claude 描述任务即可。控制台提供了一个内置的提示生成器,由 Claude 3.5 Sonnet 提供支持,它允许用户描述任务(例如“分类传入的客户支持请求”)并让 Claude 生成高质量的提示。
用户可以使用 Claude 的新测试用例生成功能为提示生成输入变量(例如,入站客户支持消息),然后运行提示以查看 Claude 的响应。或者也可以手动输入测试用例。
为了增强测试过程,Anthropic引入了测试套件生成功能,允许用户手动添加或从CSV导入测试用例,或者利用Claude的自动生成功能。用户可以一键运行所有测试用例,并根据需要调整测试参数。
此外,Anthropic还提供了模型响应评估和提示迭代的工具,使用户能够快速改进他们的提示。并排比较提示输出的功能,以及邀请专家评分的选项,都旨在提高模型性能。
Anthropic的这些新功能现已对所有用户开放。公司鼓励开发者访问其文档,了解更多关于使用Claude生成和评估提示的信息。
Anthropic的这一更新,无疑将为AI应用程序的开发带来革命性的变化,使得开发者能够更加高效地优化他们的产品。随着AI技术的不断进步,我们期待看到更多创新工具的出现,进一步推动行业发展。