Anthropic 修改服务政策:允许第三方将自家 Claude 等 AI 模型用于“未成年人产品”中

Anthropic 上周更新自家服务政策,宣布将从 6 月 6 日开始将开放未成年人使用自家 AI 模型服务,同时在条款中更明确地禁止将相关 AI 用于“侵犯用户隐私”等目的。IT之家注意到,Anthropic 做的第一件事就是将他们的 EULA 措辞从“建议使用政策”(Acceptable Use Policy)改名为“使用政策”(Use Policy),相对强硬地声明了用户的责任。此外,Anthropic 宣布虽然他们禁止 18 岁以下用户使用自家 Claude 系列 AI 模型,但该公司宣称由于他们注意到了

Anthropic 上周更新自家服务政策,宣布将从 6 月 6 日开始将开放未成年人使用自家 AI 模型服务,同时在条款中更明确地禁止将相关 AI 用于“侵犯用户隐私”等目的。

Anthropic 修改服务政策:允许第三方将自家 Claude 等 AI 模型用于“未成年人产品”中

IT之家注意到,Anthropic 做的第一件事就是将他们的 EULA 措辞从“建议使用政策”(Acceptable Use Policy)改名为“使用政策”(Use Policy),相对强硬地声明了用户的责任。

此外,Anthropic 宣布虽然他们禁止 18 岁以下用户使用自家 Claude 系列 AI 模型,但该公司宣称由于他们注意到了 Claude 模型潜在的教育用途,因此在经过斟酌后公司目前允许将 Anthropic API 整合到“未成年人用的产品”中。

Anthropic 修改服务政策:允许第三方将自家 Claude 等 AI 模型用于“未成年人产品”中

Anthropic 同时更新其条款,明文禁止使用他们的 AI 开发出能够辨识人类情感的系统或技术,而在“高风险使用场景”(如医疗决策、法律指引、财务、保险、学术测试、媒体内容生成)等方面,也必须遵循额外的安全措施,否则需要用户自行承担责任。

相关资讯

杨笛一团队:一个弹窗,就能把AI智能体操控电脑整懵了

弹窗攻击很有效,控制计算机的智能体根本顶不住。 前些天,Anthropic 为 Claude 带来一个极具变革意义的功能:Computer Use,也就是控制用户的计算机。 当时,Anthropic 在博客中写到:「在 OSWorld 这项测试模型使用计算机的能力的评估基准上,Claude 当前的准确度为 14.9%,虽然远远不及人类水平(通常为 70-75%),但却远高于排名第二的 AI 模型(7.8%)。

大模型代肝,自动刷《崩铁》升级材料,Claude操纵计算机还能这么用!

大模型的执行力从哪里来? 上个月,Anthropic 推出了升级版的 Claude 3.5 Sonnet。 最新版本的 Claude 3.5 Sonnet 能够根据用户指令移动光标、点击相应位置以及通过虚拟键盘输入信息,模仿人类与计算机的交互方式。

Meta 将使用来自欧洲用户的数据训练 AI,声称此举具有合法权益

感谢近日,美国 Meta 公司宣布将开始使用欧洲用户的数据来训练自己的人工智能,并声称此举具有合法权益。Meta 公司表示,为了帮助用户获得这些体验,现在将使用用户的信息来开发和改进 Meta 的 AI,用户有权反对将自己的信息用于这些目的。公司在隐私政策中加入更新内容,以反映这些变化。更新将于 2024 年 6 月 26 日生效。该通知已通过 Facebook 的应用内通知系统发送给欧洲用户:“我们正在为您规划新的人工智能功能。了解我们如何使用您的信息。”在此页面中,用户可以看到最新更新的隐私政策。Meta 表示