Anthropic 上周革新自家效劳策略,发表将从 6 月 6 日开始将开放未成年人应用自家 AI 模型效劳,同时在条目中更明确地允许将相关 AI 用于“侵略用户隐衷”等目的。IT之家注重到,Anthropic 做的第一件事就是将他们的 EULA 说话从“建议应用策略”(Acceptable Use Policy)改名为“应用策略”(Use Policy),相对倔强地声明了用户的责任。此外,Anthropic 发表虽然他们允许 18 岁以下用户应用自家 Claude 系列 AI 模型,但该公司声称由于他们注重到了
Anthropic 上周革新自家效劳策略,发表将从 6 月 6 日开始将开放未成年人应用自家 AI 模型效劳,同时在条目中更明确地允许将相关 AI 用于“侵略用户隐衷”等目的。
IT之家注重到,Anthropic 做的第一件事就是将他们的 EULA 说话从“建议应用策略”(Acceptable Use Policy)改名为“应用策略”(Use Policy),相对倔强地声明了用户的责任。
此外,Anthropic 发表虽然他们允许 18 岁以下用户应用自家 Claude 系列 AI 模型,但该公司声称由于他们注重到了 Claude 模型潜在的教育用途,因此在经过推敲后公司目前允许将 Anthropic API 整合到“未成年人用的产品”中。
Anthropic 同时革新其条目,明文允许应用他们的 AI 开发出能够辨识人类情感的系统或技术,而在“高风险应用场景”(如医疗决策、法律指挥、财务、保险、学术测试、媒体内容生成)等方面,也必须遵循特殊的安全措施,否则需要用户自行承担责任。