OpenAI 和谷歌 DeepMind 员工联名发声:高级人工智能风险巨大,亟需加强监管

OpenAI 和谷歌 DeepMind 的数名前任和现任员工近日联名发布公开信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的监管表示担忧。图源 PixabayIT之家注意到,这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和风险水平的信息讳莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呼吁内部人士站出来发

OpenAI 和谷歌 DeepMind 的数名前任和现任员工近日联名发布公开信,对高级人工智能的潜在风险以及当前缺乏对人工智能科技公司的监管表示担忧。

OpenAI 和谷歌 DeepMind 员工联名发声:高级人工智能风险巨大,亟需加强监管

图源 Pixabay

IT之家注意到,这封公开信指出,人工智能的发展可能会带来一系列的风险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。

信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和风险水平的信息讳莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呼吁内部人士站出来发声。

由于缺乏有效的政府监管,这些现任和前任员工成为能够让这些公司对公众负责的少数群体之一。然而,由于严格的保密协议,员工被限制发声,只能向可能并未妥善处理这些问题的公司反映问题。传统的举报人保护措施并不适用,因为此类措施侧重于违法行为,而目前令人担忧的许多风险尚不受监管。

员工们呼吁人工智能公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体包括:

不得创建或执行阻止员工对风险相关问题提出批评的协议;

提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧;

支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧;

在其他程序失效后,避免对公开分享风险相关机密信息的员工进行报复。

共有 13 名员工签署了这封公开信,其中包括 7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工。据悉,OpenAI 曾因员工发声而威胁取消其既得权益,并要求员工签署严格的保密协议限制他们批评公司。

相关资讯

OpenAI发布新安全框架,董事会有权否决CEO发布新模型

机器之能报道编辑:吴昕人类正在进入生成式 AI 新时代。而 OpenAI 在引导新技术朝着符合人类价值观和安全标准的方向所做的努力,也被视为行业的路标。还记得 Sam Altman 回归 OpenAI 时提到的「三个当务之急」吗?首当其冲的就是险些将他踢出公司的安全问题。现在,OpenAI  正力图系统化他们的安全思维。「我们的准备团队正在开展开创性工作,将安全发展成为一门定量科学。」 OpenAI 总裁 Greg Brockman 在社交平台上表示。本周一,公司在其网站上公布的一项计划,制定了一个框架来解决其最先

欧洲议会通过《人工智能法案》:禁止人工智能操纵人类行为、利用人类弱点

感谢欧洲议会今日以 523 票赞成、46 票反对、49 票弃权的压倒性多数支持通过了《人工智能法案》,据悉,这项法案将会“具有里程碑意义”。欧洲议会表示,该法案旨在保护基本权利、环境可持续性等方面免受“高风险人工智能”的影响,同时促进创新,以将欧洲“打造成为该领域的领导者”。综合界面新闻、BBC 报道,该法案将禁止一部分“威胁公民权利”的人工智能应用,包括基于敏感特征的生物识别分类系统,以及从互联网或闭路电视录像中无目标地抓取面部图像,以创建面部识别数据库。此外,操纵人类行为或利用人类弱点的人工智能也将被禁止。该法

精准预测流产风险,上海交大等开发可解释AI算法,为早期预防带来希望

编辑 | ScienceAI上海交通大学李金金、上海市红房子妇产科医院金莉萍等组成的联合团队,开发了基于人工智能的流产风险预警平台,首次实现了在怀孕前,通过分析血清代谢物来精准预测流产风险。该研究以「Interpretable learning predicts miscarriage using pre-pregnancy serum metabolites」为题,于 2024 年 10 月发布在《The Innovation Medicine》。论文链接::流产的影响与研究挑战流产,尤其是反复自然流产(Recu