美国人工智能安全研究所首任所长离职

美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。 这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。

美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。

开会,会议

图源备注:图片由AI生成,图片授权服务商Midjourney

凯利自去年上任以来,负责监督该研究所的初步工作,旨在评估和应对日益强大的人工智能系统所带来的风险。她与多家初创企业达成了合作协议,包括 OpenAI 和 Anthropic,允许该研究所在这些公司发布 AI 模型之前进行测试。此外,她还与全球其他人工智能安全机构展开了合作,以推动 AI 安全领域的共同发展。

美国人工智能安全研究所成立于拜登政府时期,归属于美国商务部的国家标准与技术研究所。自特朗普总统于1月20日上任以来,他撤销了拜登在2023年颁布的关于人工智能的行政命令,但目前尚不清楚新政府对于人工智能安全研究所的具体计划。

凯利在其 LinkedIn 的帖子中表示:“我对人工智能安全研究所的未来充满信心,它的使命对于人工智能创新的未来至关重要。” 不过,凯利未能及时回应记者的置评请求,进一步增加了外界对该机构未来发展的关注。

随着凯利的离职,人工智能安全研究所面临着领导层的空缺,外界对其未来战略、目标和发展方向的关注度也随之上升。在全球对人工智能技术日益重视的背景下,如何有效地监管和安全使用 AI,成为了亟待解决的问题。

划重点:

🌟 凯利于本周三宣布辞去美国人工智能安全研究所首任所长职务,未来方向未明。  

🤝 她在任期间与 OpenAI、Anthropic 等公司达成协议,推动 AI 模型的安全测试与合作。  

📉 特朗普政府上任后撤销了前任关于人工智能的行政命令,研究所未来发展面临不确定性。

相关资讯

UIUC 李博:如何探索大模型背后的安全隐忧?|ICML2024直击

作者:马蕊蕾编辑:陈彩娴大模型的安全研究,没有赶上 AI 的发展速度。 7 月微软蓝屏事件,像是新老交替之际的一记警钟。 每一项新技术的发明,都伴随着一种新责任的出现。

Yoshua Bengio、姚期智、张亚勤:AI安全是“全球公共产品”,全球合作刻不容缓

AI安全国际对话发起人,从左到右依次是Stuart Russell,姚期智,Yoshua Bengio,张亚勤图灵奖得主Yoshua Bengio图灵奖得主姚期智在为期三天的会议中,与会科学家们共同达成了一份具有重要意义的共识声明,其核心观点强调了AI安全作为“全球公共产品”的重要性,建议各国应将AI安全纳入学术与技术合作的核心领域。 共识指出,人工智能系统的滥用或失控可能给全人类带来灾难性后果。 然而,我们尚未开发出必要的科学手段来管控和保障对高级智能的使用。

​OpenAI 联合创始人短暂任职Anthropic后再次离职

AI 研究领域的知名人物 John Schulman,作为 OpenAI 的联合创始人,自2024年8月离开 OpenAI 加入竞争对手公司 Anthropic 后,仅在该公司工作了六个月,近日宣布再次离职。 Schulman 自九年前研究生毕业后便加入 OpenAI,成为创始团队的一员,并被认为是 ChatGPT 的核心架构师之一。 在加入 Anthropic 时,Schulman 表示希望能够更加专注于 AI 对齐研究,这是他选择离开的主要原因。