Anthropic 公司昨日(7 月 10 日)发布新闻稿,宣布推出了多项新工具,基于 Claude 3.5 Sonnet 大语言模型自动化、细化提示词(prompt)。AI在线附上完整演示视频如下: 增强开发环境,可生成提示Anthropic 控制面板新增“评估”(Evaluate)单元,借助 Claude 3.5 Sonnet 大语言模型,帮助开发者高效地生成、微调和测试提示(Prompt)。这些增强功能旨在改进语言模型对各种任务的响应,为使用 Claude 开发人工智能产品的企业提供宝贵的资源。开发者只需描述
Anthropic 公司昨日(7 月 10 日)发布新闻稿,宣布推出了多项新工具,基于 Claude 3.5 Sonnet 大语言模型自动化、细化提示词(prompt)。
AI在线附上完整演示视频如下:
增强开发环境,可生成提示
Anthropic 控制面板新增“评估”(Evaluate)单元,借助 Claude 3.5 Sonnet 大语言模型,帮助开发者高效地生成、微调和测试提示(Prompt)。
这些增强功能旨在改进语言模型对各种任务的响应,为使用 Claude 开发人工智能产品的企业提供宝贵的资源。
开发者只需描述任务(例如“分流处理客户支持请求”),Claude 就会为你生成一个高质量的提示。
有效测试和评估
开发者在“评估”选项卡中,可以根据各种场景测试其人工智能应用程序的提示。
用户可以上传真实示例或者使用 Claude 生成案例,从而对比不同提示之间的有效性,答案以五分制进行评估,便于开发者直观评估。
在 1 个博客示例中,开发者只需调整一行,就能在所有测试中生成更长、更详细的答案,从而节省时间和提高生产率。
测试机制
新工具支持手动和自动测试提示。开发人员可以生成输入变量,查看 Claude 的响应情况,并在需要时手动输入测试用例。
根据多个真实输入进行测试有助于在生产部署前验证提示质量。开发人员可以手动添加或从 CSV 中导入新的测试用例,或请求 Claude 创建测试用例。