吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

现在双方 2:2 了。关于「AI灭尽论」引发的一系列争论,各路大佬们又吵起来了。这次加入争吵的是著名人工智能学者、斯坦福大学计算机科学系教授吴恩达。在此之前,深度学习三巨子 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 的辩论已经开始。Hinton 和 Bengio 的见解基本一致,他们觉得需要加强对 AI 技术的禁锢,例如,就在前几日, Hinton 和 Bengio 等再发联名信《在快速发展的时代管理人工智能危急》,号令在开发 AI 系统之前,研究者应该采取紧急治理措施,将安

现在双方 2:2 了。

关于「AI灭尽论」引发的一系列争论,各路大佬们又吵起来了。这次加入争吵的是著名人工智能学者、斯坦福大学计算机科学系教授吴恩达。

在此之前,深度学习三巨子 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 的辩论已经开始。Hinton 和 Bengio 的见解基本一致,他们觉得需要加强对 AI 技术的禁锢,例如,就在前几日, Hinton 和 Bengio 等再发联名信《在快速发展的时代管理人工智能危急》,号令在开发 AI 系统之前,研究者应该采取紧急治理措施,将安全和道德实践纳入重点,号令各国政府应该采取行动,管理 AI 带来的危急。

然而,LeCun 的见解和他们并不相同,他对 AI 发展持有特别很是乐观的态度,觉得 AI 的发展远未构成对人类的威胁。

就在刚刚过去的一天,LeCun 在 X 上公开点名 Hinton 和 Bengio 等人,LeCun 觉得「如果一些人(Hinton 和 Bengio 等人)的惊骇宣传活动取得成功,将不可避免地形成灾难性的结果:少数公司将节制 AI。绝大多数学术同行都特别很是支持开放式 AI 研发。很少有人相信你们所鼓吹的末日场景。你、Yoshua、Geoff 是唯一的例外。」

在 LeCun 看来,AI 会构成对人类威胁这种言论必将形成一些垄断发生,结果是只有少数公司节制 AI 的研发,进而节制人们的数字产品依赖。LeCun 表示,这些问题曾让他彻夜难眠。

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

                                图源:https://twitter.com/ylecun/status/1718670073391378694

这边的辩论还没结束,吴恩达也加入进来了:「我对人工智能的未来最大的担忧是,过度夸大危急(例如人类灭尽)可能会促成人们制定抑制开源和抑制翻新的规定。」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

吴恩达援用了一篇他最近发布的新文章,文中提到:「一些大型公司的游说者正试图说服规定制定者觉得人工智能是特别很是危险的,而其中一些公司是不愿意与开源竞争的。」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

                                   援用文章链接:https://www.deeplearning.ai/the-batch/issue-220/

如果关于人工智能的规定会招致开源社区 AI 研究进展缓慢,或者小型初创公司遭遇翻新瓶颈,那么一些大型科技公司可能会从中获利。

Hinton 迅速在这条推特下面提出质疑:「如果人工智能不受到严格禁锢,它在未来 30 年内招致人类灭尽的几率是多少?如果您是真正的贝叶斯主义者,您应该能够给出一个数字。我目前估量是 0.1,我猜测 Yann LeCun 估量的数值 <0.01。」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

LeCun 也很快给出回答:「我觉得这个几率比人类灭尽的大多数其他潜在原因要少得多」,并反问 Hinton:「人工智能实际上可能会拯救人类免于灭尽,您估量这个几率是多少?」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

接着,Hinton 也发了一条推特:「我从谷歌离职就是对『诡计论』见解最好的反驳。」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

显然,Hinton 觉得吴恩达把「AI 灭尽论」看成一场科技巨子的「诡计」。

吴恩达很快正面回击:「我并没有说这是一个诡计。但我觉得对人工智能招致人类灭尽的过度惊骇正在形成真正的伤害。」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

吴恩达列举了目前「AI 灭尽论」形成的一些负面影响,包括:

年轻的学生不愿进入人工智能领域,因为他们不想为人类灭尽做出贡献。 

有关人工智能危害的炒作被用来促进全球范围内的不良禁锢,破坏开源,抑制翻新。

吴恩达觉得「AI 灭尽论」的见解弊大于利。

LeCun 也马上发表看法,称:「Hinton 和 Bengio 无意中帮助了那些想要通过禁止开放研究、开源代码和开放访问模型,来垄断人工智能研究、开发及业务的人。从长远来看,这将不可避免地招致不良结果。」

吴恩达加入图灵奖得主讨论:「AI灭尽论」弊大于利

不管大佬们辩得如何,昨天拜登已经签署了首个生成式 AI 行政号令《关于安全、可靠、可信开发和使用人工智能的行政号令》(以下简称「号令」),该「号令」为人工智能的发展和使用设置了护栏,也是迄今为止美国最全面的 AI 禁锢原则。由于相当多机构参与了提供意见,「号令」读起来更像是各个不同(甚至对立)群体立场的拼凑。

总之,到底该如何对待 AI,这是一个复杂的问题,需要综合考虑许多因素,随着时间的推移,这个问题会有答案的。

给TA打赏
共{{data.count}}人
人已打赏
理论

四万字详解AI对齐:北大联合多高校团队发布对齐全面性综述

2023-11-1 14:33:00

理论

GPT-4能「伪装」成人类吗?图灵尝试结果出炉

2023-11-2 14:29:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索