【新智元导读】「AI 教父」Geoffrey Hinton 在最近的采访中表达了自己对 AI 智能的了解 ——LLM 并不是简单的统计模型,已经具备了了解能力。与此同时,网友翻出了去年 12 月的「过期」视频,惊奇地发现 Hinton 早就「叛变」了,竟然对超等 AI 代替人类的未来意味支撑。
最近,半退休的「AI 教父」Geoffrey Hinton 频频出现在各种采访中,输出他关于 ASI 的各种言论和观念,甚至只是聊点生涯轶事都可以引起网友们的热烈讨论。
不到一个月之前,他就揭发了爱徒 Ilya 在暑假受够了炸薯条的工作,结果投奔自己实验室的经历。
虽然这些演讲和采访内容各异,但 Hinton 始终不忘一点 —— 提示我们注意 AGI 安全和飞速发展的智能,并预告它们将代替人类的「赛博朋克」未来。
对于 AI,Hinton 的想法和感情比起我们想必要复杂许多。
在神经网络「坐冷板凳」的那些日子里,他守着自己的实验室和两名研究生「不离不弃」,最终等到了深度学习大放异彩的时代。
在 2013 年入职谷歌后,Hinton 成为「教父」,一边亲眼看着自己孩子一样的 AI 快速成长,一边逐渐担心「少年终成恶龙」。最终他选择了与自己创造的世界搏斗,过上了致力于警告 AI 安全的退休生活。
AI 不是统计技巧,而是有了解能力
Hinton 最近一次的公开露面是 BNN 彭博社 6 月 15 日进行的独家采访。
Hinton 在采访中输出的「AI 具有了解能力」的观念引起了 Reddit 社区的广泛讨论。
如果「了解」的意思是 LLM 可否对某个概念建立复杂的内在意味,那么谜底是肯定的。如果「了解」的意思是 LLM 可否用与人类相同的方式了解概念,那么谜底是否定的(否则模型不会在诗歌方面如此出色的同时有如此差的算术能力)。
毕竟,「AI 可否了解」,这个课题既模糊,又在社区内存在极大的争议和分歧。
Hinton 坚决反驳了一种流行的观念,即 LLM 仅仅是统计技巧,并不能真正了解自然语言的含义。
他意味,这是完全错误的。类似于「词袋」(bag of words)或者 N 元组(N-gram)这种曾经的语言模型,内部保存了一个很大的有概率分数的单词组合表,的确是依靠统计概率工作。
说到这里,身为英国人的 Hinton 很是自然地用国菜开始举例。
比如单词表里会显示,「鱼」和「薯条」经常出现在一起。因此模型看到「鱼」这个单词,自然就会猜测下一个单词是「薯条」,丝毫不考虑上下文。
这就是为什么,曾经的统计语言模型在自动补全功能上的表现很差。
但当今 LLM 的工作原理已经完全不同了。现在,模型猜测下一个单词的方法是了解你到目前为止所说的话。
比如,想要回答人类的课题,LLM 必须首先了解课题的含义,否则根本无法猜测谜底的第一个单词。从这个角度了解,单词猜测任务(next token prediction)相当于是倒逼 LLM 发展出了解能力。
Hinton 的言语中透露出,他也相信 Scaling Law 的存在。随着模型逐渐扩展,加上更多 Transformer 这样的技术突破,AI 终将变得比人类更智能,只不过是时间早晚的课题。
主持人反问他,变得更聪慧的技术一定会带来风险吗?
Hinton 的回应一针见血 ——「你能举出多少例子,说明更聪慧的在被不太聪慧的控制?」
他提到,好友 Yann LeCun 的观念就与自己不同,以为 AI 很是安全。但 Hinton 的论据是,AI 已经达到了构建智能体(agent)的程度,能够自主创建目标。
这些目标会驱动智能体攫取更多控制权,会希望避免毁灭、建立自我保护,某种程度上这是一种自身利益,也许就是退化的开始。
那么人类呢?
Hinton 预言,如果 AI 开始退化、最强的一方获胜,人类就会被遗忘,被碾压进尘土(原话:left in the dust)。AI 将从孩子变成我们的父母,接管一切。
这听起来的确是科幻小说的场景,但对 Hinton 是认真的,「我不再以为这听起来很科幻,而是现实存在的威胁。」
超等 AI 代替人类
上面彭博的这篇最新采访中,Hinton 谈到了 AI 代替人类的可能。
Reddit 网友随后翻出了一个去年 12 月的访谈视频,同样涉及「AI 代替人类」的话题,但这一次,Hinton 的观念更加让人惊讶 ——
他宣称,自己实际上是支撑 AI 的!
事情起源于采访最后的一名观众提问,原课题是这样的:
「如果一个超等智能 AI 摧毁了人类,但客观上创造了一种认识层面上更好的物种,您个人是支撑还是腹诽这种结果?如果腹诽,您建议用什么方法,在面对超等智能 AI 时维持人类认识的存在或主导地位?」
接下来,Hinton 用平静的语气回答道:「我实际上是支撑的,但我以为意味腹诽是更明智的说法。」
采访者意味,你展开说说?
但 Hinton 只是很是谨慎地给出了一句话,「人们不喜欢被代替」。
采访者继续追问原因,Hinton 首先叠甲,「人类有很多好的方面,也有很多不那么好的方面」。
之后给出了一段令人深思的解释:「目前我们还不清楚什么是最好的智能形式。显然,从人的角度来看,一切都与人有关。但未来有一天,我们可能会把『人文主义』看成一种类似于种族主义的概念。」
这段对话在 Reddit 上同样是一石激起千层浪。
发帖的博主都十分惊讶于 Hinton 的激进态度,而且他被要求展开解释时似乎态度很是坚决,即使他心知肚明,「意味腹诽是更明智的说法」。
有人严厉批评,以为他不顾人类这个物种的生存和整体福祉,这是「愤世嫉俗」、「虚无主义」的表现。毕竟,人都没了,要那么先进的 AI 技术有什么用呢?
「很难想象比这更愤世嫉俗的行为了。」
「我以为很多未来主义者都嘲讽人文主义的价值,希望在任何可能的情况下将人类因素从『方程』上移走。」
但也同样有支撑和了解的声音,以为 Hinton 并不是愤世嫉俗、憎恶人类,只是清醒认识到了一个现实 —— 人类不是造物的顶峰。
退化会继续,更好的物种必然出现,他只是用一种更开放、坦然的心态接受了这个事实。