填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

感谢谷歌公司于 10 月 24 日发布博文,宣布推出 SAIF 风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。 SAIF 简介AI在线注:谷歌去年发布了安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署 AI 模型,SAIF 不仅分享了最佳实践,还为行业提供了一个安全设计的框架。 为了推广这一框架,谷歌与行业伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的 AI 安全措施。
感谢谷歌公司于 10 月 24 日发布博文,宣布推出 SAIF 风险评估工具,旨在帮助人工智能开发者和组织评估其安全态势,识别潜在风险,并实施更强的安全措施。

SAIF 简介

AI在线注:谷歌去年发布了安全人工智能框架(SAIF),旨在帮助用户安全、负责任地部署 AI 模型,SAIF 不仅分享了最佳实践,还为行业提供了一个安全设计的框架。

为了推广这一框架,谷歌与行业伙伴共同成立了安全人工智能联盟(CoSAI),以推动关键的 AI 安全措施。

SAIF 风险评估工具

谷歌目前已经在新网站 SAIF.Google 上提供 SAIF 风险评估工具,该工具以问卷形式运行,用户回答后会生成定制化的检查清单,指导他们确保 AI 系统的安全。

填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

工具涵盖多个主题,包括:

  • AI 系统的训练、调优和评估

  • 对模型和数据集的访问控制

  • 防止攻击和对抗性输入

  • 生成性 AI 的安全设计与编码框架

用户在回答问题后,工具会立即生成一份报告,突出 AI 系统面临的具体风险,如数据中毒、提示注入和模型源篡改等。

填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

填补 AI 安全空白:谷歌上线安全人工智能框架风险评估工具

每个风险都附有详细解释及建议的缓解措施,此外用户还可以通过互动 SAIF 风险地图了解在 AI 开发过程中如何引入与缓解不同的安全风险。

相关资讯

OpenAI发布新安全框架,董事会有权否决CEO发布新模型

机器之能报道编辑:吴昕人类正在进入生成式 AI 新时代。而 OpenAI 在引导新技术朝着符合人类价值观和安全标准的方向所做的努力,也被视为行业的路标。还记得 Sam Altman 回归 OpenAI 时提到的「三个当务之急」吗?首当其冲的就是险些将他踢出公司的安全问题。现在,OpenAI  正力图系统化他们的安全思维。「我们的准备团队正在开展开创性工作,将安全发展成为一门定量科学。」 OpenAI 总裁 Greg Brockman 在社交平台上表示。本周一,公司在其网站上公布的一项计划,制定了一个框架来解决其最先

欧洲议会通过《人工智能法案》:禁止人工智能操纵人类行为、利用人类弱点

感谢欧洲议会今日以 523 票赞成、46 票反对、49 票弃权的压倒性多数支持通过了《人工智能法案》,据悉,这项法案将会“具有里程碑意义”。欧洲议会表示,该法案旨在保护基本权利、环境可持续性等方面免受“高风险人工智能”的影响,同时促进创新,以将欧洲“打造成为该领域的领导者”。综合界面新闻、BBC 报道,该法案将禁止一部分“威胁公民权利”的人工智能应用,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无目标地抓取面部图像,以创建面部识别数据库。此外,操纵人类行为或利用人类弱点的人工智能也将被禁止。该法

精准预测流产风险,上海交大等开发可解释AI算法,为早期预防带来希望

编辑 | ScienceAI上海交通大学李金金、上海市红房子妇产科医院金莉萍等组成的联合团队,开发了基于人工智能的流产风险预警平台,首次实现了在怀孕前,通过分析血清代谢物来精准预测流产风险。该研究以「Interpretable learning predicts miscarriage using pre-pregnancy serum metabolites」为题,于 2024 年 10 月发布在《The Innovation Medicine》。论文链接::流产的影响与研究挑战流产,尤其是反复自然流产(Recu