美国人工智能安全研究所首任所长离职

美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。 这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。

美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。

开会,会议

图源备注:图片由AI生成,图片授权服务商Midjourney

凯利自去年上任以来,负责监督该研究所的初步工作,旨在评估和应对日益强大的人工智能系统所带来的风险。她与多家初创企业达成了合作协议,包括 OpenAI 和 Anthropic,允许该研究所在这些公司发布 AI 模型之前进行测试。此外,她还与全球其他人工智能安全机构展开了合作,以推动 AI 安全领域的共同发展。

美国人工智能安全研究所成立于拜登政府时期,归属于美国商务部的国家标准与技术研究所。自特朗普总统于1月20日上任以来,他撤销了拜登在2023年颁布的关于人工智能的行政命令,但目前尚不清楚新政府对于人工智能安全研究所的具体计划。

凯利在其 LinkedIn 的帖子中表示:“我对人工智能安全研究所的未来充满信心,它的使命对于人工智能创新的未来至关重要。” 不过,凯利未能及时回应记者的置评请求,进一步增加了外界对该机构未来发展的关注。

随着凯利的离职,人工智能安全研究所面临着领导层的空缺,外界对其未来战略、目标和发展方向的关注度也随之上升。在全球对人工智能技术日益重视的背景下,如何有效地监管和安全使用 AI,成为了亟待解决的问题。

划重点:

🌟 凯利于本周三宣布辞去美国人工智能安全研究所首任所长职务,未来方向未明。  

🤝 她在任期间与 OpenAI、Anthropic 等公司达成协议,推动 AI 模型的安全测试与合作。  

📉 特朗普政府上任后撤销了前任关于人工智能的行政命令,研究所未来发展面临不确定性。

相关资讯

Anthropic安全防护面临挑战,AI模型通用越狱测试揭示突破口

在短短六天内,参与者成功绕过了Anthropic人工智能(AI)模型Claude3.5的所有安全防护措施,这一突破为AI安全防护领域带来了新的讨论。 前OpenAI对齐团队成员、现就职于Anthropic的Jan Leike在X平台宣布,一名参与者成功攻破了所有八个安全级别。 这项集体努力涉及了约3,700小时的测试和来自参与者的300,000条消息。

​Anthropic悄然删除拜登时代 AI 安全承诺,政策风向显著改变

近日,AI 公司Anthropic在其网站上悄然删除了与拜登政府时期有关的人工智能(AI)安全承诺。 该承诺最初由一个名为 “Midas Project” 的 AI 监督机构发现,上周从Anthropic的透明性中心删除,透明性中心列出了公司关于负责任的 AI 开发的 “自愿承诺”。 虽然这些承诺并不具有法律约束力,但它们承诺与政府分享有关 AI 风险(包括偏见)的信息和研究。

警惕!马斯克的新AI模型Grok 3被曝存在严重安全漏洞,黑客可轻松操控!

AI 安全公司 Adversa AI 发布了一项令人震惊的报告,称埃隆・马斯克的创业公司 xAI 刚发布的 Grok3模型在网络安全方面存在重大漏洞。 Adversa 的研究团队发现,这款最新的 AI 模型容易受到 “简单的越狱攻击”,这可能使不法分子能够获取诸如 “如何诱骗儿童、处理尸体、提取 DMT 以及制造炸弹” 等敏感信息。 更糟糕的是,Adversa 的首席执行官兼联合创始人亚历克斯・波利亚科夫表示,这次漏洞不仅仅是越狱攻击那么简单,他们还发现了一种新的 “提示泄露” 缺陷,暴露了 Grok 模型的完整系统提示。