AI在线 AI在线

美国人工智能安全研究所首任所长离职

作者:AI在线
2025-02-06 11:40
美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。 这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。

美国人工智能安全研究所(U.S. AI Safety Institute)的所长埃莉莎白・凯利(Elizabeth Kelly)于本周三宣布辞职,她在 LinkedIn 上发布了这一消息。这一决定使得该新成立的政府机构在特朗普总统领导下的未来方向变得更加不明朗。

开会,会议

图源备注:图片由AI生成,图片授权服务商Midjourney

凯利自去年上任以来,负责监督该研究所的初步工作,旨在评估和应对日益强大的人工智能系统所带来的风险。她与多家初创企业达成了合作协议,包括 OpenAI 和 Anthropic,允许该研究所在这些公司发布 AI 模型之前进行测试。此外,她还与全球其他人工智能安全机构展开了合作,以推动 AI 安全领域的共同发展。

美国人工智能安全研究所成立于拜登政府时期,归属于美国商务部的国家标准与技术研究所。自特朗普总统于1月20日上任以来,他撤销了拜登在2023年颁布的关于人工智能的行政命令,但目前尚不清楚新政府对于人工智能安全研究所的具体计划。

凯利在其 LinkedIn 的帖子中表示:“我对人工智能安全研究所的未来充满信心,它的使命对于人工智能创新的未来至关重要。” 不过,凯利未能及时回应记者的置评请求,进一步增加了外界对该机构未来发展的关注。

随着凯利的离职,人工智能安全研究所面临着领导层的空缺,外界对其未来战略、目标和发展方向的关注度也随之上升。在全球对人工智能技术日益重视的背景下,如何有效地监管和安全使用 AI,成为了亟待解决的问题。

划重点:

🌟 凯利于本周三宣布辞去美国人工智能安全研究所首任所长职务,未来方向未明。  

🤝 她在任期间与 OpenAI、Anthropic 等公司达成协议,推动 AI 模型的安全测试与合作。  

📉 特朗普政府上任后撤销了前任关于人工智能的行政命令,研究所未来发展面临不确定性。

相关资讯

Anthropic安全防护面临挑战,AI模型通用越狱测试揭示突破口

在短短六天内,参与者成功绕过了Anthropic人工智能(AI)模型Claude3.5的所有安全防护措施,这一突破为AI安全防护领域带来了新的讨论。 前OpenAI对齐团队成员、现就职于Anthropic的Jan Leike在X平台宣布,一名参与者成功攻破了所有八个安全级别。 这项集体努力涉及了约3,700小时的测试和来自参与者的300,000条消息。
2/12/2025 11:14:00 AM
AI在线

​Anthropic悄然删除拜登时代 AI 安全承诺,政策风向显著改变

近日,AI 公司Anthropic在其网站上悄然删除了与拜登政府时期有关的人工智能(AI)安全承诺。 该承诺最初由一个名为 “Midas Project” 的 AI 监督机构发现,上周从Anthropic的透明性中心删除,透明性中心列出了公司关于负责任的 AI 开发的 “自愿承诺”。 虽然这些承诺并不具有法律约束力,但它们承诺与政府分享有关 AI 风险(包括偏见)的信息和研究。
3/8/2025 10:59:00 AM
AI在线

投资人警告阿尔特曼:OpenAI 内部安全危机加剧

近日,有关 OpenAI 内部紧张局势的报道浮出水面,投资人彼得・蒂尔在2023年11月阿尔特曼被解雇前夕,曾对阿尔特曼提出警告,关注 AI 安全倡导者与公司商业方向之间的冲突。 据《华尔街日报》的报道,蒂尔在洛杉矶的一次私人晚宴上,向阿尔特曼提出了这一问题。 他特别提到了 “有效利他主义”(Effective Altruism)运动在 OpenAI 内部的影响,称阿尔特曼未能意识到 AI 研究者尤利泽尔・尤德科夫斯基的影响力。
3/31/2025 9:28:00 AM
AI在线