OpenAI 和google DeepMind 职工联名发声:高级人工智能危险巨大,亟需加强羁系

OpenAI 和google DeepMind 的数名后任和现任职工近日联名发布公开信,对高级人工智能的潜在危险以及当前不足对人工智能科技公司的羁系表示担心。图源 PixabayIT之家注意到,这封公开信指出,人工智能的发展可能会带来一系列的危险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和危险水平的信息讳莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呐喊内部人士站出来发

OpenAI 和google DeepMind 的数名后任和现任职工近日联名发布公开信,对高级人工智能的潜在危险以及当前不足对人工智能科技公司的羁系表示担心。

OpenAI 和google DeepMind 职工联名发声:高级人工智能危险巨大,亟需加强羁系

图源 Pixabay

IT之家注意到,这封公开信指出,人工智能的发展可能会带来一系列的危险,例如加剧现有社会的不平等、助长操控和虚假信息传播,以及失控的自主人工智能系统可能导致人类灭绝等。

信中写道,人工智能公司拥有强大的经济利益驱动它们继续推进人工智能研发,同时却对保护措施和危险水平的信息讳莫如深。公开信认为,不能指望这些公司会自愿分享这些信息,因此呐喊内部人士站出来发声。

由于不足有效的政府羁系,这些现任和后任职工成为能够让这些公司对大众负责的少数群体之一。然而,由于严峻的窃密和谈,职工被限制发声,只能向可能并未妥善处理这些题目的公司反映题目。传统的举报人保护措施并不适用,因为此类措施侧重于违法行为,而目前令人担心的许多危险尚不受羁系。

职工们呐喊人工智能公司为揭露人工智能危险的人士提供可靠的举报人保护措施,具体包括:

不得创建或执行阻止职工对危险有关题目提出表扬的和谈;

提供可验证的匿名法式,使职工能够向董事会、羁系机构和有关领域的独立组织提出与危险有关的担心;

支持开放表扬的文化,允许职工在保护商业机密的前提下,向大众、董事会、羁系机构等方面提出与技术有关的危险担心;

在其他法式失效后,避免对公开分享危险有关机密信息的职工进行报复。

共有 13 名职工签订了这封公开信,其中包括 7 名前 OpenAI 职工、4 名现任 OpenAI 职工、1 名前google DeepMind 职工和 1 名现任google DeepMind 职工。据悉,OpenAI 曾因职工发声而威胁取消其既得权益,并要求职工签订严峻的窃密和谈限制他们表扬公司。

给TA打赏
共{{data.count}}人
人已打赏
AI

鸿海宣布在高雄建造先辈算力中心,与英伟达在 AI 等多领域分工

2024-6-4 15:04:42

AI

AI 纲要“幻觉”风波未平,google Gemini 聊天机器人又被曝“料事如神”

2024-6-5 7:10:10

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索