今年 2 月随着 Sora 的横空出世,大家再一次把目光聚集到 OpenAI。
不仅如此,去年亮相的 ChatGPT、GPT-4,更是把 AI 直接带入到生成式人工智能领域。作为一家引领科技潮流的机构,大家自然对其方方面面都产生好奇。
在最近的一次采访中,美国知名播客 Lex Friedman 再次邀请 OpenAI 首席执行官 Sam Altman 进行专访。专访时间长达两个小时,对话中 Sam Altman 透漏了几个大家比较关心的成绩。
Sam Altman 坦言,OpenAI 的「董事会风波」让他很痛苦,甚至在一段时间内他都处于神游状态(fugue state),整个事件持续了好几天,过程跌宕起伏,让 Sam 倍感疲惫,Altman 表示这可能不是 OpenAI 最后一个高压力时刻。整个事件中,Sam 高度赞扬了 Mira Murati 出色的表现。他以为 OpenAI 面临的挑战之一是必须拥有一个善于在压力下运作的董事会和团队。此外董事会增补了一些经验更丰富的成员。
关于 Ilya,Sam Altman 表示他很是尊重并欣赏 Ilya,盼望未来的处事生涯都能和他合作,并回应道:「Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣。关于安全成绩 Ilya 想了无数,也担心了无数。」
Sam Altman 还对马斯克批评 OpenAI 的事变给出了自己的看法:「对于许多根本性的新事物来讲,你开始在黑暗中摸索,并做出一些假设,结果会发现大多数假设都是错误的。我们进行了一些修补,最后的结果至少可以说是让人瞠目结舌。」他以为马斯克也会对此有无数共鸣。
谈到 Sora 时,Altman 表示很是乐观,但是将 Sora 理解为一个底层三维全国模型,是有点牵强的,此外,他还提到了 Sora 的局限性。但当尔子问到细节和数据时,Altman 没有透漏更多有用的信息。
在 Altman 眼中 GPT-4 还是很糟糕的,他预计 5 和 4 之间的差值将与 4 和 3 之间的差值相同。
访谈中,当尔子问道 Q* 是个什么项目时,Sam Altman 表示自己还没准备好回答这个成绩,但他透漏了 AI 系统下一步发展计划是进行更好的推理。OpenAI 现在采用迭代部署的形式进行研发,而不是秘密进行直到完成 GPT-5 才公布,他们的目标不是给全国带来震惊性的更新,恰恰相反,OpenAI 盼望自己研发的成果不会给人一种跳跃式的发展趋势,如果那样的话,OpenAI 会更加快速迭代地发布他们的产品。Sam Altman 表示 GPT-5 之类的研究或许采用一种不同的发布形式。
当尔子问道GPT-5 的发布日期时,Altman 回答自己并不晓得。但他表示 OpenAI 在接下来的几个月中会发布许多不同的工具,大家可以理解为 GPT-5,或者不是,又或者是比 GPT-5 稍差或好一点的模型。Altman 还分享了一些经验总结,即自己会对科技行业中所有的或大部分前沿动态有一个好的全景图,这样才能能看到这些领域的连接或新的可能性。
采访过程中,当尔子问道筹集 7 万亿美元建造芯片厂的事时,Altman 否认了,表示自己没说过这类话。之后他谈到算力将成为全国上最珍贵的商品之一,而实现算力需求解决能源成绩,Altman 以为核能是一个不错的选择。
Altman 对于打造比谷歌更好的搜索引擎不感兴趣,他觉得这很无聊。OpenAI 要做的不是简单的复制谷歌搜索,而是有更好的方法帮助人们查找信息、采取行动并综合信息。无数人都想做一个比谷歌更好的搜索引擎,这是一个很难解决的技术成绩,也是一个很难解决的品牌成绩,更是一个很难解决的生态系统成绩。Altman 以为全国不需求另一个谷歌,并坦言自己并不喜欢用广告来盈利,他以为用户使用付费 ChatGPT 不受广告商的影响就可以了。
对于 GPT-5 ,Altman 透漏会变得更聪明,在各个方面都将表现更好。Altman 预测 5 到 10 年后人类完全可以用自然语言编程。OpenAI 也会重返机器人领域。
最后,Altman 谈到了大家比较关心的成绩 AGI,他表示 AGI 不是终点,而是更接近于一个里程碑式的开端。预计到在下个十年的末期,甚至可能更早,我们将拥有相当强大的 AI 系统。
关于这次采访的内容,我们进行了编译整理。
OpenAI 董事会风波
尔子:带我回顾一下从 2023 年 11 月 16 日星期四开始的那场 OpenAI 董事会风波吧,或许您也可以从 11 月 17 日星期五开始讲述。
Sam Altman:这绝对是我一生中最痛苦的职业经历,混乱、可耻、令人不安,还有无数其他负面的事变。不过期间也有好事发生,但是我当时太过焦虑,肾上腺素激增,以至于我无法停下来细品这些经历。
但当我看见推特上人们谈论我做过的所有重要的事变,以及我爱的和关心的人都给了我难以置信的支持。那种感觉太好了。
整个周末,除了一个很大的例外,我感受到了无数爱和很少的恨,尽管我不晓得正在发生什么以及将要发生什么,这类未知的感觉也的确很糟糕。有时我确实以为这将是人工智能安全史上发生的最糟糕的事变之一。
我也很高兴这件事发生得相对较早。我以为从 OpenAI 成立到我们创建 AGI,一定会有某个时刻,会发生一些疯狂和爆炸性的事变。即使现在似乎已经发生了,未来可能还会有更多疯狂和爆炸性的事变发生。我以为,这场风波帮助我们建立了一定的韧性,并为未来的更多挑战做好了准备。
尔子:但你预感到的事变是权力斗争吗?
Sam Altman:通向 AGI 的道路该当是一场巨大的权力斗争……
尔子:所以你必须经历这个过程,就像你说的,尽可能频繁地迭代,弄清楚如何建立董事会结构、如何建立组织、如何拥有你所需求的人员、如何沟通,所有这些成绩都需求努力解决,以便尽可能缓和权力斗争。
Sam Altman:是的。
尔子:缓和。
Sam Altman:但此时此刻回想起来,这件事变真的让人很不愉快,很困难、很痛苦。当我们又回到处事岗位,事变又如此的忙碌和紧张。之后有一段时间,一个月或者 45 天后,我都处于一种神游状态,我实在是太没出息了,心情很是低落。
尔子:只是在个人心理层面上吗?
Sam Altman:是的。真的很痛苦,而且在这期间很难继续运行 OpenAI。我只想「爬进山洞里」恢复一下。
尔子:嗯,你可能需求反思一下董事会结构、权力动态、公司的运营形式、研究和产品开发与资金之间的紧张关系,以便 OpenAI 在构建 AGI 方面具有很高的潜力,未来会以一种更有组织性、不那么引人注目的形式来实现 AGI。因此,这类恢复有无数价值,既包括你作为领导者的个人心理方面,也包括董事会结构等所有混乱的工具。
Sam Altman:我确实学到了无数关于结构和激励措施的工具,并且意识到在董事会之外我们还需求什么。我以为现在发生的这件事在某种意义上是有价值的。我以为这可能不是 OpenAI 最后一个高压力时刻,但这是一个压力相当高的时刻,公司差一点就被毁掉了。我们思虑了无数我们必须为 AGI 做好的其他事变,但思虑如何建立一个有弹性的组织以及如何建立一个能够承受全国上巨大压力的结构,随着我们越来越接近 AGI,我以为这越来越重要。
尔子:你觉得董事会的审议过程深入、严谨吗?
Sam Altman:我以为董事会成员总体上都是善良的人,而且我相信,在感到时间压力或其他压力的情况下,人们会理解并做出次优的决定。我以为 OpenAI 面临的挑战之一是我们必须拥有一个善于在压力下运作的董事会和团队。
尔子:你以为董事会权力太大吗?
Sam Altman:我以为董事会该当拥有很大的权力,但我们确实看到的一件事是,在大多数公司结构中,董事会通常对股东负责。有时人们会拥有超级投票权股份等等。
在这类情况下,我以为除非制定其他规则,否则非营利组织的董事会拥有相当大的权力。除了他们自己之外,他们并不真正对任何人负责。我们盼望的是 OpenAI 董事会能够向整个全国做出回应。
尔子:因此宣布了一个新的董事会。
Sam Altman:是的。一些新董事会成员拥有更多的董事会成员经验,我想这会有帮助。
我们盼望以名单的形式雇佣董事会成员,致力于让一群人带来非营利的专业知识、运营公司的专业知识、法律和治理专业知识,这就是我们试图优化的目标。
尔子:那么技术知识对于董事会成员个人来讲重要吗?
Sam Altman:并非每个董事会成员都需求掌握技术知识,但肯定有一些成员需求,这也是董事会需求做的一部分。
尔子:有趣的是,人们可能不了解 OpenAI 运营业务的所有细节,当然我也不了解。当人们想到董事会时,他们首先会想到你。他们会考虑,如果你以为达到了通用人工智能,或者构建部署了一些很是有影响力的产品,那么你与董事会的对话会是什么样的?在这类情况下,什么样的阵容才是合适的?
Sam Altman:这就是我以为肯定需求一些技术专家的原因。然后需求一些人去思虑并解决一个成绩:「我们如何才能以最帮助全全国人的形式部署它」,当然还需求持有不同观点的人。
我以为你或我可能犯的一个错误是以为只有技术理解才重要,但还有更多关于如何影响社会和人们生活的成绩。
尔子:你提到了那个周末的一些低谷。对你来讲,心理上的低谷是什么?
Sam Altman:那的确是一段很是糟糕的时期,但是也有无数好事。我的手机不停地收到来自我每天一起处事的人的好消息,这些人我已经十年没有和他们说过话了。总的来讲,这是一个很是痛苦的周末。这就像一场令人惊讶的公开战斗,我很是疲惫。董事会于周五下午进行了此项处事。我真的无法得到太多答案。我在想,董事会可以这样做,但我如何能因祸得福。
我当时想,好吧,我目前在 OpenAI 的处事是,或者说曾经是,经营一家规模相当大的公司。我一直最喜欢的事变就是与研究人员一起处事。我当时想,是的,我可以去做一个很是专注的 AGI 研究处事。我对此感到很兴奋。我当时甚至没有想到这一切都会被撤销。
尔子:所以你当时已经接受了这件事变。
Sam Altman:是的,很是迅速。我经历了一段困惑和愤怒的时期,但很快就想清楚了。
尔子:当天晚上你睡得着吗?
Sam Altman:睡得不好。奇怪的是,在那四天半的时间里,我睡得不好,吃得不多,但仍然精力充沛。
尔子:所以你接受了 OpenAI 这个「婴儿」的死亡。
Sam Altman:我对新事物感到兴奋。
尔子:这是一个很是好的应对机制。
Sam Altman:然后到了周六早上,两名董事会成员打电话说:「我们并不是有意破坏稳定。我们不想在这里存储太多价值。我们可以谈谈你回来的事变吗?」我最初不想这样做,但我想了想,我真的很在乎这里的人、合作伙伴、股东。我喜欢这家公司。然后我想:「好吧,但这就是我需求的工具。」那个周末,我一直在思虑并被告知,不仅仅是我,整个团队都在努力保持 OpenAI 的稳定。
周日晚上,每隔几小时,我就期待我们会完成任务,找到一种让我回去的方法,让事变回到原来的样子。董事会随后任命了一位新的临时首席执行官,那是整个事变的最低谷的时刻。
尔子:你对 Mira Murati 给予了高度评价,正如你在推文中所说,她在重要的时刻提供了帮助。或许我们可以稍微偏离一下主题。你欣赏 Mira 什么?
Sam Altman:嗯,在那个周末,在一片混乱中,她做得很好,人们经常在危机时刻看到领导者的表现,无论好坏。但我真正看重领导者的一点是,在无聊的周二上午 9:46 以及日常的平凡苦差事中表现如何,某人在日常会议中的表现、他们所做决策的质量。这就是我所说的静默时刻。
尔子:这意味着大部分处事都是在日复一日的会议中完成的。只要专注并做出重大决定即可。
Ilya Sutskever
尔子:下一个成绩,关于 Ilya,他是否被秘密核组织挟持成人质了?
Sam Altman:没有。
尔子:普通的秘密组织呢?
Sam Altman:没有。
尔子:非秘密的核组织呢?
Sam Altman:都没有。
尔子:这在某种程度上正在成为一个梗了。你认识 Ilya 很长时间了。显然,他是董事会风波的一部分。你现在和他是什么关系?
Sam Altman:我爱 Ilya。我很是尊重 Ilya。我不晓得我能否透露他现在的计划,这个成绩该当由他来回答。但我真的盼望未来的处事生涯都能和他合作。他比我年轻一点。或许他的处事时间会更长一点。
尔子:有人说 Ilya 看到了一些工具,可能是 AGI,这让他内心不安。所以,Ilya 看到了什么?
Sam Altman:Ilya 看到的不是 AGI,没有人见到过 AGI,我们还没有建造过 AGI。我确实以为我欣赏 Ilya 的众多原因之一是他很是认真地对待 AGI 和安全成绩,从广义上讲,这包括 AGI 将对社会产生的影响。随着 OpenAI 不断取得重大进展,Ilya 是陪伴我时间最久的人之一。在过去的几年里,他总谈起这意味着什么、我们需求做什么来确保我们做的是对的,确保我们成功完成使命。所以 Ilya 并没有看到通用人工智能,但 Ilya 是人类的功臣,他想了无数,也担心了无数。
尔子:我过去和他聊过无数次。我以为当他谈论技术时,他总是在做这类长期的思虑。所以他并没有考虑一年后会发生什么,他考虑的是十年后的情况,是从首要原则出发去思虑。
总结一下整个故事,你对董事会结构感觉良好吗?
Sam Altman:是的。我对新董事会感觉很好。就 OpenAI 的结构而言,董事会的任务之一就是研究我们可以在哪些方面变得更加强大。我们盼望首先让新的董事会成员就位,但我们显然在整个过程中学到了有关结构的教训。我想,我没有什么很是深奥的工具要说。这是一次很是疯狂、痛苦的经历。这对我来讲是一个预演,随着风险越来越大,我们需求拥有健全的治理结构、流程和人员安排。我很高兴它发生了,但这段经历令人震惊、痛苦。
尔子:这是否让你在信任他人方面变得更加犹豫?
Sam Altman:是的。
尔子:只是在个人层面上吗?
Sam Altman:是的。我以为我是一个很是信任别人的人。我一直有一个人生哲学,那就是不要担心所有的偏执,不用担心边缘情况。这场风波让我措手不及,它绝对改变了我对人们默认信任和针对糟糕情况规划的看法。
尔子:我实际上不确定对于正在开发 AGI 的人来讲,信任或不信任哪种模式最适合操作。但你如何让周围的人都在创造很酷的工具,同时也做出明智的决定?
Sam Altman:我对每天与我一起处事的人怀有极大的感激、信任和尊重,我以为被这样的人包围真的很重要。
马斯克的诉讼
尔子:我们共同的朋友埃隆・马斯克起诉了 OpenAI。对你来讲,他批评的本质是什么?多大程度上有道理?多大程度上是错的?
Sam Altman:我不晓得这到底是怎么回事。我们一开始只是想做一个研究实验室,根本不晓得这项技术会如何发展。因为这是七八年前的事了,我们很难回想起来当时的情况,但这是在语言模型大行其道之前。那时候我们还不晓得什么是应用程序接口(API),也不晓得销售聊天机器人的访问权限。那时候我们还完全不晓得要实现产品化。所以我们就想,「我们只是想做做研究,并不晓得要做什么」。我以为,对于许多根本性的新事物来讲,你开始在黑暗中摸索,并做出一些假设,结果会发现大多数假设都是错误的。
后来我们发现,我们需求做不同的事变,还需求更多的资金。于是我们说:「好吧,我们的结构不适合这样做。我们该如何修补结构?」然后我们进行了一些修补,最后的结果至少可以说是让人瞠目结舌。但我以为,我们是一步步走到现在的,一路上的每一个决定都是合理的。但这并不意味着,如果我们现在能回到 Oracle 时代,我的做法就会完全不同,但当时你并没有 Oracle。但无论如何,埃隆真正的动机是什么,我不晓得。
尔子:根据你的记忆,OpenAI 在博文中给出的回应是什么?你能总结一下吗?
Sam Altman:哦,我们只是说埃隆说了这一系列事变。这是我们的描述,或者说这不是我们的描述。这是对事变经过的描述。我们尽量避免情绪化,只说「这是历史」。
尔子:我确实以为埃隆对你刚才提到的一点有一定程度的误解,那就是你们当时的不确定性。你们是一小群疯狂谈论 AGI 的研究人员,而所有人都在嘲笑这类想法。
Sam Altman:不久前,埃隆还在疯狂地谈论发射火箭,而当时人们都在嘲笑这类想法,所以我以为他会对此有更多共鸣。
尔子:我确实以为这里面有个人因素,OpenAI 和这里无数了不起的人选择与埃隆分道扬镳,这其中有个人因素。
Sam Altman:埃隆选择了分道扬镳。
尔子:你能具体描述一下吗?选择分道扬镳?
Sam Altman:他以为 OpenAI 将会失败。他想要完全掌控局面。我们盼望继续朝着现在已经成为 OpenAI 的方向前进。他还盼望特斯拉能够建立 AGI。在不同时期,他都盼望将 OpenAI 打造成一家营利性公司,由他来控制,或者让它与特斯拉合并。我们不想这么做,所以他决定离开,这也没什么。
尔子:所以你的意思是,这也是博文中提到的一点,他盼望 OpenAI 能以同样的形式被特斯拉收购,或者是类似的形式,或者是比与微软合作更戏剧化的形式。
Sam Altman:在我的记忆中,这个提议是被特斯拉收购,让特斯拉完全控制它。我很确定就是这样。
尔子:那么 OpenAI 中的 Open 一词对当时的埃隆来讲意味着什么?Ilya 曾在邮件交流中谈到过这一点,还有其他类似的工具。当时它对你意味着什么?现在对你又意味着什么?
Sam Altman:说到回到 Oracle,我会选一个不同的名字。我以为 OpenAI 正在做的最重要的一件事,就是将强大的技术作为公益事业免费提供给人们。我们不在自己的网站上做广告。
作为一项公益事业。我们不在免费版本上做广告。我们不以其他形式盈利。我们只是说,这是我们使命的一部分。我们盼望将越来越强大的工具免费提供给人们使用。我以为这类开放性对我们的使命很是重要。我以为,如果你给人们提供强大的工具,并教他们使用,或者甚至不教他们,他们就会自己想办法,让他们用这些工具为彼此创造一个不可思议的未来,这就是一件大事。因此,如果我们能继续向全国提供免费或低成本的强大人工智能工具,我以为这对我们完成使命意义重大。至于开源与否,我以为我们该当开源一些工具,而不是其他工具。这确实是一条很难有细微差别的战线,但我以为细微差别才是正确的答案。
尔子:所以他说,「把你的名字改成 CloseAI,我就撤诉」。这是否会成为关于名字的备忘录的战场?
Sam Altman:我以为这说明了埃隆对这起诉讼的重视程度,我以为这是一件令人震惊的事变。
尔子:如果我说错了,或许可以纠正我,但我不以为这起诉讼在法律上是严肃的。它更多地是想说明 AGI 的未来,以及这家目前处于领先地位的公司。
Sam Altman:我是说 Grok 一直没有开源任何工具,直到人们指出这有点虚伪,然后他宣布了 Grok 开源。我不以为开源与否是他的真正目的。
尔子:好吧,我们来谈谈开源和不开源。我以为批评竞争对手是件好事。说点废话,那很好。但友好的竞争与「我个人最讨厌打官司」的竞争是不同的。
Sam Altman:听着,我以为这整件事都不符合一个建造者的身份。我尊敬埃隆,他是我们这个时代最伟大的建筑师之一。我晓得他晓得仇敌攻击他的滋味,他这样折腾让我格外难过。
尔子:是的,他是有史以来最伟大的建造者之一,有可能是有史以来最伟大的建造者。
Sam Altman:这让我很难过。我想这也让无数人难过。有无数人都仰慕他很久了。我在某次采访中说,我很怀念以前的埃隆,结果收到了无数留言,「这正是我的感受」。
尔子:我觉得他该当赢。他该当让 X Grok 打败 GPT,然后让 GPT 打败 Grok,这就是竞争,对每个人来讲都很美好。但关于开放源代码的成绩,你以为是否有无数公司在玩这个创意?这很有趣。我以为 Meta 公司在这方面走在了前面,至少在真正开源模式的棋局中迈出了第一步。当然,这并不是最先进的模型,但开放 Llama 的源代码后,谷歌正在考虑开放一个更小的版本。开源的利弊是什么?你是否也有过这类想法?
Sam Altman:是的,我以为开源模型肯定会有一席之地,尤其是人们可以在本地运行的小型模型,我以为需求巨大。我以为会有一些开源模型,也会有一些闭源模型。这与其他生态系统并无不同。
尔子:我听所有的播客都在谈论这起诉讼和所有这些工具。他们更关心的是,从非营利到盈利的先例。这给其他初创企业开了什么先例?
Sam Altman:我很是不鼓励任何初创公司考虑从非营利机构起步,然后再加入营利机构。我不鼓励他们这么做。我不以为我们会在这里开创先例。
如果我们晓得会发生什么,我们也会这么做的。
尔子:你盼望埃隆怎么做?这类紧张,这类舞蹈,你盼望是什么?如果从现在起的 1、2、3 年后,你和他在个人层面上的关系也是如此,比如友谊、友好竞争,诸如此类。
Sam Altman:是的,我真的很尊敬埃隆,我盼望在未来的几年里,我们能保持友好的关系。
尔子:是的,我盼望你们这个月能友好相处,在竞争中获胜,共同探索这些想法。我想这是人才竞争或其他方面的竞争,但该当是友好的竞争。只要造出很酷的工具就行。埃隆很擅长于此,你也一样。
Sora
尔子:说到 Sora,我可以问一百万个成绩。首先,它太神奇了。从产品层面来讲神奇,从哲学层面来讲也很神奇。那么,让我从技术 / 哲学的角度问一下,你以为它对全国的理解比 GPT-4 多了还是少了?当你在这些 patch 和语言 token 上进行训练时,全国模型是怎样的?
Sam Altman:我以为所有这些模型对全国模型的理解都比我们大多数人以为的要多。因为它们对不理解或不正确的工具也很清楚,所以我们很容易看到它们的弱点,看穿它们的面纱,然后说「啊,这都是假的」。但这并不全是假的。只是有些有用,有些没用。
我记得刚开始看 Sora 视频时,我会看到一个人在某个工具前面走几秒钟,然后把它遮住,然后走开,同样的工具还在那里。我就想「哦,这还真不错」。或者有一些例子,在一个序列的许多步骤中,底层物理看起来表现得很是好,就像 「哦,这真是令人印象深刻」。但从根本上说,这些模型正在变得越来越好,而且这类情况还会继续发生。如果你看看 DALL・E 1 到 DALL・E 2 到 DALL・E 3 再到 Sora 的发展轨迹,就会发现有无数人在每一个版本中都说它做不到这一点,做不到那一点,但看看现在的情况就晓得了。
尔子:嗯,你刚才提到的「遮挡」基本上是对三维物理全国的物理建模,足以捕捉到这些工具。或许你可以告诉我,为了处理遮挡,全国模型需求什么?
Sam Altman:它在处理遮挡物方面做得很是好。但如果说它有一个很好的底层三维全国模型,这就有点牵强了。
尔子:但你能通过这类二维训练数据的方法达到目的吗?
Sam Altman:看起来这类方法会走得很远。我不想过多猜测它能突破哪些限制,不能突破哪些限制,但……
尔子:你见过这个系统哪些有趣的局限性?我是说你发过的一些有趣的限制。
Sam Altman:各种有趣的都有。我是说,猫咪在视频中随机出现的额外限制。随你怎么选,但成绩还是无数,弱点也无数。
尔子:你以为这是方法的根本缺陷,还是模型更大、技术细节更好、数据更好,更多数据就能解决猫发芽的成绩?
Sam Altman:我觉得两者都是。我以为,这类方法似乎与我们的思维和学习形式有所不同。另外,我以为随着规模的扩大,这类方法会越来越好。
尔子:就像我提到的,LLM 有 token、文本 token,而 Sora 有视觉 patch,因此它能将所有视觉数据、各种视觉数据视频和图像转换成 patch。训练是否可以说是完全自监督的,是否有一些人工标注?人类在其中的参与程度如何?
Sam Altman:我们在处事中使用了大量的人类数据,但并没有具体介绍 Sora 的方法。
尔子:但不是互联网规模的数据?人类如此之多,「无数」是一个复杂的词,山姆。
Sam Altman:我以为在这类情况下「无数」是一个公平的词。
尔子:因为对我来讲,我是一个内向的人,当我和三个人一起出去玩时,那就是「无数」人 —— 四个人,无数了。但我想你的意思不仅仅是……
Sam Altman:是的,有超过三个人致力于为这些模型标记数据。
尔子:但从根本上来讲,有无数自监督学习。因为你在技术报告中提到的是互联网规模的数据。那是另一种美丽…… 就像诗一样。所以有无数数据不是人类标注的,是这样自监督的吗?
Sam Altman:是的。
尔子:然后的成绩是,如果我们晓得自监督的细节,互联网上有多少数据可以用于这类有利于这类自监督的形式。您是否考虑过公开更多细节?
Sam Altman:我们有。你的意思是专门针对来源吗?
尔子:具体来源。因为这太有趣了,LLM 的同样魔力现在可以开始转向视觉数据吗?需求什么才能做到这一点?
Sam Altman:我的意思是,在我看来是的,但我们还有更多处事要做。
尔子:当然。有什么危险?为什么担心发布系统?这可能存在哪些危险?
Sam Altman:坦白说,在发布系统之前我们必须做的一件事就是让它以一定的效率运行,从而达到人们想要的规模。我不想淡化这一点,那里还有大量处事要做。但你可以想象深度造假和错误信息带来的成绩。我们努力成为一家深思熟虑的公司,对我们向全国推出的产品深思熟虑,并且不需求太多思虑就可以晓得这类情况可能会变得糟糕。
尔子:这里有无数棘手的成绩,你面临着一个很是艰难的空间。你以为训练人工智能该当属于版权法下的合理使用吗?
Sam Altman:我以为这个成绩背后的成绩是,创造有价值数据的人是否该当通过某种形式获得使用数据的补偿,我以为答案是肯定的,只是还不晓得答案是什么。人们提出了无数不同的建议,我们尝试了一些不同的模型。
尔子:是的,这就是从 CD 到 Napster 再到 Spotify 的转变。我们必须找出某种模型。
Sam Altman:模式发生了变化,但人们必须得到报酬。
尔子:好吧,如果我们进一步缩小范围,让人类继续做很酷的事变,就该当有某种激励。
Sam Altman:在我担心的一切中,人类会做出一些很酷的事变,而社会会找到一些方法来奖励它。我们想要创造,我们想要成为有用的人,我们想要以任何形式获得地位。我以为这不会有什么结果。
尔子:但奖励可能不是金钱上的。这可能是其他的名誉和庆祝 ——
Sam Altman:或许可以通过其他形式实现财务方面的目的。再说一次,我以为我们还没有看到经济体系如何运作的最后演变。
尔子:是的,但艺术家和创作者很担心。当他们看到 Sora 时,他们会说「天哪」。
Sam Altman:当然。当摄影出现时,艺术家们也很是担心,然后摄影成为一种新的艺术形式,人们通过拍照赚了无数钱。我以为类似的事变还会继续发生。人们将以新的形式使用新工具。
尔子:如果我们只看 YouTube 或类似的内容,你以为在未来五年内,其中有多少内容将使用 Sora 等人工智能生成的内容?
Sam Altman:人们谈论人工智能在五年内将完成多少处事。他们的框架是,目前的处事中有多少比例将被人工智能完成的处事完全取代?但我思虑的形式不是人工智能将完成多少百分比的处事,而是人工智能在一段时间内将完成多少百分比的任务。
因此,如果你想到经济中所有的五秒任务、五分钟任务、五小时任务,甚至五天任务,人工智能可以完成多少任务?
我以为这是一个比人工智能可以做多少处事更有趣、更有影响力、更重要的成绩,因为它是一种工具,可以在越来越复杂的水平上处事,在越来越长的时间范围内完成越来越多的任务,并让人们以一种更灵活的形式进行操作。所以或许人们的处事效率会更高。
在某种程度上,这不仅仅是一种量的变化,而且对于你可以记住的成绩类型也是一种质的变化。我以为 YouTube 上的视频也是一样的。许多视频,或许是大多数视频,都会在制作中使用人工智能工具,但从根本上来讲,它们仍然是由一个人思虑、组合、完成其中的一部分来驱动的。有点指导和运行它。
尔子:是的,这很有趣。我的意思是这很可怕,但想想很有趣。我倾向于相信人类喜欢观察其他人类或其他人类。
Sam Altman:人类确实很是关心其他人。
尔子:是的。如果有比人类更好的更酷的工具,人类会关心它两天,然后他们就会回到人类。
Sam Altman:这似乎很是紧密。
尔子:这就是国际象棋的故事,「哦,是的」,现在让我们每个人都继续下国际象棋。让我们忽略房间里的大象,相对于人工智能系统,人类在国际象棋方面确实很糟糕。
Sam Altman:我们仍然参加比赛,汽车的速度要快得多。我的意思是有无数例子。
尔子:是的。或许它只是以 Adobe 套件类型的形式提供工具,可以使视频之类的事变变得更加容易。我讨厌站在镜头前,如果能找到一种不在镜头前的方法,我会很高兴的。不幸的是,这还需求一段时间。生成面孔已经实现了,但是当它是特定的人与一般的人时,以视频格式生成面孔是很棘手的。
GPT-4
尔子:让我问一下有关 GPT-4 的成绩。现在回想起来,ChatGPT 的第 3、4、5 可能就是历史性的关键时刻。
Sam Altman:或许 5 将是关键时刻。我不晓得。很难说期待。
尔子:我们永远不会晓得。但对我来讲,回顾过去,GPT-4、ChatGPT 很是令人印象深刻。那么请允许我问一下,您对 GPT-4 、 GPT-4 Turbo 印象最深刻的功能是什么?
Sam Altman:这是一件了不起的事变,但相对于我们需求达到的目标以及我相信我们将会达到的目标,还是糟糕的。
在 GPT-3 时代,人们会说,「哦, 这真太了不起了。这是技术的奇迹」。确实如此,曾经如此。但现在我们有了 GPT-4,再看看 GPT-3,你会想,「这太可怕了」。我预计 5 和 4 之间的差值将与 4 和 3 之间的差值相同。
尔子:GPT-4 最糟糕的地方是什么?
Sam Altman:它能做的最好的事变是什么?
尔子:它能做的最好的事变是什么?这些最好的事变的局限性是什么?
Sam Altman:我最近使用它的一件事是有点像集思广益的伙伴。其中有一丝令人惊奇的工具。当人们谈论它、它的作用时,他们会说:「哦,它会帮助我更高效地编码。它帮助我写得更快更好以及从将这类语言翻译成另一种语言」所有这些令人惊奇的事变。
但是有一些关于创造性头脑风暴合作伙伴的工具,「我需求为这个工具想一个名字。我需求以不同的形式思虑这个成绩。我不晓得在这里做什么」,正是这些让我看到了一些我盼望看到更多的工具。
你可以看到的另一件事是,我可以被帮助完成长期任务,分多个步骤分解某些内容,或许执行其中一些步骤,搜索互联网、写代码,无论如何,把它们放在一起。当这类方法奏效时(这类情况并不常见),那就很是神奇了。
尔子:与人的反复交流对我来讲很是有效。这是什么意思?
Sam Altman:当人类可以自己解决 10 步成绩时,它可以更频繁地来回迭代。有时它并不经常起作用。
尔子:添加多个抽象层还是意味着只是顺序的?
Sam Altman:两者都是,将其分解,然后通过不同的抽象层将它们组合在一起。我不想低估 GPT-4 的成就,但我也不想夸大它。我以为我们正处于指数曲线上,我们很快就会回顾 GPT-4,就像我们现在回顾 GPT-3 一样。
尔子:也就是说,ChatGPT 是一个过渡,让人们开始相信信念有所上升,而不是在 OpenAI 内部。
Sam Altman:当然。从这个意义上说,我确实以为这将是全国上无数人从不相信变成相信的时刻。这更多是关于 ChatGPT 界面的。通过界面和产品,我还指的是模型的后期训练,以及我们如何调整它以对你有所帮助,以及如何使用它而不是底层模型本身。
尔子:这些事变有多重要?底层模型和 RLHF 或类似性质的工具可以对其进行调整,使其对人类更具吸引力,对人类来讲更加有效和富有成效。
Sam Altman:我的意思是它们都很是重要,但是 RLHF、训练后步骤、从计算角度来看的事变的小包装、我们在基本模型之上所做的事变的小包装 尽管这是一项巨大的处事量,但这确实很重要,更不用说我们围绕它构建的产品了。
从某种意义上说,我们确实必须做两件事。我们必须发明底层技术,然后我们必须弄清楚如何将其变成人们喜欢的产品,这不仅仅是实际的产品处事本身,而是如何调整它并使其有用的整个其他步骤 。
尔子:以及如何让秤在无数人可以同时使用的情况下发挥作用。
Sam Altman:还有那个。但这是一件众所周知的困难事。我们晓得我们必须扩大规模。我们必须去做两件以前从未做过的事变,我想说这两件事都是相当重大的成就,然后是无数其他公司以前必须做的事变,比如扩大规模。
尔子:从 GPT-4 到 GPT-4 Turbo,从 8K 到 128K token 的上下文窗口有何不同?
Sam Altman:大多数人大多数时候并不需求一直调到 128。尽管如果我们梦想到遥远的未来,我们将拥有遥远的未来,我们将拥有数十亿的上下文长度。随着时间的推移,你将输入所有信息、所有历史记录,它会越来越了解你,这很是棒。目前,人们使用这些模型的形式并没有这样做。人们有时会发布论文或代码存储库的重要部分,无论如何,但模型的大多数使用在大多数情况下都不会使用长上下文。
尔子:我喜欢你的「我有一个梦想」演讲。有一天,人们会根据你的性格或你一生的全部背景来评判你。那很有意思。所以这是你所盼望的扩展的一部分,是一个越来越大的背景。
Sam Altman:我看过一次这个互联网剪辑,我会把数字弄错,但这就像比尔・盖茨谈论某些早期计算机上的内存量,或许是 64K,或许是 640K。其中大部分用于屏幕缓冲区。他只是看起来不太真诚,只是无法想象全国最终会需求计算机中的千兆字节内存或计算机中的兆字节内存。只需求遵循技术的指数,我们就会找到如何使用更好的技术。所以我现在真的无法想象有一天上下文长度会达到十亿个。我晓得我们会使用它,而且一旦我们拥有它,我们真的不想再回去了。
尔子:是的,即使说 10 年后的数十亿也可能看起来很愚蠢,因为它将是数万亿美元。未来将会出现某种突破,感觉就像是无限的上下文。但即使是 120,说实话,我也没有把它用到那个程度,比如放入整本书或部分书籍、论文。你见过哪些有趣的 GPT-4 用例?
Sam Altman:我发现最有趣的事变不是我们可以谈论的任何特定用例,事实上,它可以很好地完成无数事变。你可以使用 GPT-V,用它来帮助你写代码、做搜索、编辑论文。对我来讲最有趣的是那些只是使用它作为处事流程开始的人。
尔子:我在无数事变上也是这样做的。我用它作为看书的阅读伙伴。它帮助我思虑,帮助我思虑想法,尤其是当书籍是经典的时候。我发现它在涵盖广泛的主题上通常比维基百科要好得多。它在某种程度上更加平衡和更加细致,激发了我比维基百科文章更深入的思虑。我不太确定那是什么。
当我开始使用 GPT 时,我对知识任务的担忧之一是我通常必须在之后进行事实检查,例如检查它是否提出了虚假内容。你怎么晓得 GPT 可以提出听起来确实令人信服的假工具?那么你如何将其扎根于事实呢?
Sam Altman:这显然是我们很是感兴趣的领域。我以为即将推出的版本会变得更好,但我们必须继续努力,今年我们不会全部解决。
尔子:可怕的是,随着情况变得更好,你会开始越来越不进行事实核查,对吗?
Sam Altman:我对此有两种看法。我以为人们对技术的使用比我们通常以为的要复杂得多。人们似乎真正理解 GPT 或任何这些模型都会产生幻觉。如果它是关键任务,你就必须检查它。
尔子:但尔子似乎不明白这一点。我见过尔子含糊地使用 GPT-4。
Sam Altman:在我想斥责尔子的一长串事变中,这并不是我对他们最严厉的批评。
尔子:嗯,我以为更大的批评或许是作为一名尔子的压力和激励是你必须很是快地处事,所以(ChatGPT)是一条捷径。新闻处事需求数天和数周的时间,并会奖励深度新闻报道。此外,以平衡的形式呈现内容的新闻报道就像在赞扬人们的同时批评他们,批评是获得点击的工具,捏造的工具也会获得点击和完全错误描述的头条新闻。我相信无数人都会说,「好吧,所有这些戏剧性的内容可能都会获得无数点击」。
Sam Altman:可能是这样。
记忆和隐私
尔子:你赋予了 ChatGPT 拥有记忆以及关闭记忆的能力。我盼望我也有这样的能力,打开还是关闭取决于自己。我以为酒精可以做到这一点,但效果不佳。
Sam Altman:我们的探索还处于早期阶段,但我以为人们想要的,或者至少是我自己想要的,是一个能够了解我并随着时间的推移对我变得更有用的模型。这还处于早期探索阶段,我以为还有无数事变要做。
尔子:完成这项任务有多难?因为现在 ChatGPT 更像是记住一些小事实和偏好等等。难道你不想让 ChatGPT 记住你在 11 月份经历的戏剧性事件吗?
Sam Altman:我不仅盼望它记住这一点,我也盼望它能够整合其中的教训,并提醒我将来该当采取哪些不同的做法或要注意什么。我们从生活经验中获益,同样我盼望 AI 智能体也能从这些经验中获益。想象一下,如果上下文长度达到数万亿,那么我可以把我一生中与任何人进行过的每一次对话都放在那里,比如我可以输入所有电子邮件、所有信息。每次我问成绩时 ChatGPT 都会在上下文窗口中查询,我以为这很是酷。
尔子:是的,如果那样的话会很是酷。此外人们很是担心隐私成绩。你怎么看?
Sam Altman:对于隐私与 AI 之间的权衡,你、我可能有不同的看法。
尔子:但公司对于用户信息的选择该当有一定程度的透明度。就像公司正在收集你的所有数据,但他们会说使用数据是有充分理由的,但具体细节尚不透明。
Sam Altman:这完全正确。刚才聊到去年 11 月发生的事,我以为这是一件很是令人痛苦的事变,让我在很长一段时间内无法处事。毫无疑问,那段时间我必须做的最艰难的事变就是继续处事,尽管当时我处于震惊和痛苦之中,但我必须尝试回到 OpenAI 并将各个部分拼凑起来,没有人真正关心这一点。有一天早上我醒来,我想,这对我来讲是一件可怕的事变。我想我可能会永远感觉自己是受害者,或者我可以说这是我一生中接触过的最重要的处事,我需求回到 OpenAI。有时我会在半夜醒来思虑这件事,但我确实觉得有义务继续前进。
尔子:是的,这里面会有一些挥之不去的工具。我担心的是你提到的信任成绩,对别人多疑,而不是相信每个人或大多数人,就像相信你的直觉一样。这是一个棘手的成绩。你似乎已经泰然处之了,学到了很好的教训,这很好。我只是想问一些成绩,您对 GPT 能做什么、不能做什么的一些直觉。因为它生成每个 token 分配大约相同的计算量。这类缓慢思虑、顺序思虑的方法是否有创新?
Sam Altman:我以为将会有一种新的思维模式。
尔子:它在架构上会与我们现在看到的 LLM 类似吗?
Sam Altman:我可以想象无数方法来实现这一点。我以为这比你所提出的成绩更重要,那就是,我们是否需求一种方法来进行更慢的思虑,而答案不必马上得到……
Sam Altman:我还没准备好讨论 Q*
尔子:这确实让我想起了 Q* 背后的神秘传说。这个神秘的 Q* 是个什么项目?也是在同一个核设施里吗?
Sam Altman:我们没有核设施。
尔子:拥有核设施的人都这么说。
Sam Altman:我倒是盼望有一个秘密的核设施,但是我们没有。
尔子:好吧。
Sam Altman:或许有一天会有的。
尔子:未来某一天?好吧,人人都可以有梦想。
Sam Altman:OpenAI 并不是一个擅长保守秘密的公司,我们会被无数方方面面的消息泄露所困扰,如果我们真的有核设施就太好了。
尔子:那你能说一下 Q * 是什么吗?
Sam Altman:我还没准备好讨论这个成绩。
尔子:这样的回答证明你们的研究很神秘,Sam。
Sam Altman:我的意思是,我们致力于各种研究。此前我们已经说过了,我们追求的重要方向是让系统更好的推理,我们还没有破解这方面的密码,因此,我们兴趣很大。
尔子:是否会有这样一个时刻,Q * 或者其他研究,会出现类似 ChatGPT 的飞跃。
Sam Altman:这是个好成绩,你想问我是怎么看待这件事的吗?这很有趣。对我来讲,这一切都是连续的。
尔子:我们现在谈论的研究趋势,基本上是沿着指数斜率上升的。这是作为一个局外人的角度观察到的。但对你来讲,有没有这类感觉?
Sam Altman:我们现在采用迭代部署的形式进行研发,而不是秘密进行直到完成 GPT-5,我们决定发布 GPT-1、2、3 和 4,其中一个原因是我以为人工智能和惊喜不该当搭配在一起。我以为,OpenAI 所做的最好的事变之一就是这个迭代策略,我们让全国关注 AI 进步,认真对待 AGI。我以为这是很是好的。但是,像你和其他人说的,你们仍然感觉到这些发展趋势出现跳跃的感觉,这让我想到,或许我们该当更加迭代地发布我们的产品。我不晓得这意味着什么,我没有现成的答案,但我们的目标不是给全国带来震惊性的更新,我们的目的正好相反。
尔子:是的,更加迭代将会很是棒。我以为这对每个人来讲都是有益的。
Sam Altman:这正是我们正在尝试做的,这是我们很是明确的策略,我以为我们在某种程度上没有达到这个目标。所以或许我们该当考虑以不同的形式发布 GPT-5 之类的工具。
尔子:是的,但人们更倾向于庆祝,例如庆祝生日。
Sam Altman:人们确实喜欢里程碑式的事物。我能理解,我想我们也喜欢里程碑式的研究。在胜利的基础上开始下一件事是很有趣的。但是,我觉得我们在这方面有些许错误。
GPT-5 发布时间未知,但会有新模型
尔子:那么 GPT-5 什么时候发布呢?
Sam Altman:我不晓得。这是诚实的回答。
尔子:哦,这是诚实的回答。如果是今年,眨两次眼。
Sam Altman:今年我们将推出一款令人惊叹的新模型。我不晓得该怎么称呼它。
尔子:这就引出了一个成绩,你们如何释放这个工具?
Sam Altman:我们将在接下来的几个月中发布许多不同的工具。我以为,在我们发布一个类 GPT-5 的模型(你可以理解为 GPT-5,或者不是,又或者比你对 GPT-5 的期望稍差或好一点的模型)之前,我们有无数其他重要的事变要先发布。
尔子:我不晓得对 GPT-5 有何期待,这让我既紧张又兴奋。不管它最终是否被称为 GPT-5,我暂且称为 GPT-5,在实现之前有哪些需求克服的挑战和瓶颈?是在计算端吗?还是技术方面?
Sam Altman:所有这些都有。什么是最重要的?算力更大的硬件?还是其他工具。在我看来这些都是。我以为 OpenAI 做得很是好…… 引用 Ilya 的原话,就像是「我们将 200 个中等大小的工具相乘,将会变成一个巨大的工具。」
尔子:所以这是一种分布式的持续创新?
Sam Altman:是的。
尔子:技术方面也是这样?
Sam Altman:尤其是在技术方面。
尔子:即使有详细的技术实现也这样?
Sam Altman:是的。
尔子:就像你对每一个细节都做得很细致,这在不同的或者完全不同的团队中是如何运作的?这些中等大小的工具是如何变成一个巨大的 Transformer 的?
Sam Altman:有些人的想法是把所有事变放在一起,但大部分人需求先在脑海里构建图景。
尔子:你的意思是说各个团队、各个贡献者该当试图把握更大的图景?
Sam Altman:在一个高层次上,是的。你当然不可能确切晓得每一块是怎样处事的,但我以为有时候将视角拉远,观察整个图景是有用的。这对于技术成绩、商业创新都很重要,最终结果会以惊人的形式汇聚在一起,即使大多数时间你专注于某一区域的细节中,拥有对整个图景的理解也会带来意想不到的洞见。实际上,我可以分享一个很是有价值的工具,我曾经对科技行业中所有或大部分前沿动态有一个好的全景图。通过这个全景图我能看到这些领域的连接或新的可能性,如果我只深入一个领域,我就不可能有这样的想法,因为我没有所有的数据。而现在我不再有这类感觉了。
尔子:你不再是过去的那个 Sam 了。
Sam Altman:可能吧,现在的处事和我过去的处事很是不同。
Altman 否认 7 万亿美元芯片计划
尔子:接下来我们聊聊前段时间你在 X 上表示要筹集 7 万亿美元建造芯片厂的事。
Sam Altman:我没有发 X。我从来没说过「我们筹集 7 万亿美元」之类的话。
尔子:是别人说的吗?
Sam Altman:是的。
尔子:但我记得你说过「Fuck it, maybe eight」。
Sam Altman:好吧,一旦有什么误导信息我会发个梗图。
尔子:一方面你会发梗图,但另一方面错误信息可能是别人基于某种洞察推测的。
Sam Altman:我以为算力将是未来的货币,它将成为全国上最珍贵的商品之一,我们该当大力投资以产生更多的算力。算力资源将是一个不同寻常的市场,现在人们考虑的大部分是手机芯片市场,全国上有 80 亿人,可能有 70 亿人拥有手机,或许是 60 亿,我们以 60 亿来讲,假如他们每两年升级一次手机,那么每年市场上需求的手机芯片量是 30 亿。如果芯片公司生产了 300 亿个芯片,但按照人们的需求并不会卖出 10 倍多的手机,因为大多数人只有一部手机。
但算力不同,我们以价格来讲,在其价格 X 时,全国会使用这么多的算力,在价格为 Y 时,全国又会使用另一个数字的算力。如果算力真的很便宜,我会让它整天阅读我的电子邮件,给我的处事提出建议,或者尝试治愈癌症,如果算力很贵,或者我们只会使用它来尝试治愈癌症。
所以我以为全国将会需求大量的算力,实现这一过程面临种种困难。其中能源是最困难的部分,此外建设数据中心也很难、制造足够的芯片同样也很难。但这似乎是事物的发展方向。我们想要的算力现在还很难推断出来。
尔子:如何解决能源成绩?核能?核聚变?
Sam Altman:这就是我所相信的。
尔子:谁来解决呢?
Sam Altman:我以为 Helion (一家美国聚变研究公司)做得最好,我很高兴看到正在进行的核聚变竞赛。我以为,核裂变也是相当惊人的,我盼望全国能够重新接受这一技术。这段历史的结束对我来讲真的很难过,盼望我们能以一种有意义的形式回到过去。
尔子:对你来讲核裂变是不是困难的一部分?就像我们目前拥有的核反应堆一样?因为无数人因为切尔诺贝利等事件而感到恐惧?
Sam Altman:我以为我们该当建造新的反应堆。我以为这个行业陷入停滞是一件很遗憾的事。
尔子:我不晓得你是否了解人类,人类似乎真的很害怕核裂变,我们必须赢得人们的支持并展示它的安全性。
Sam Altman:如果这样的话,我很担心 AI。
尔子:我盼望人工智能可以帮助我们看到事物的真相,保持事物的平衡,让人类晓得什么是真正的风险以及实际的危险是什么。在这个领域与 Google、Meta、xAI 等公司竞争的利弊是什么?
Sam Altman:我想我有一个很是直接的答案,或许稍后我能想出更多的细微差别,但好处似乎很明显,那就是我们能更快、更便宜地获得更好的产品和更多的创新,所有这些都是各大公司展开竞争的好处。但是如果我们不小心,可能会导致军备竞赛的加剧,这让我感到紧张。
尔子:你是否感受到军备竞赛的压力?
Sam Altman:在某些方面是肯定的。我们花了无数时间讨论优先考虑安全的必要性。我已经说过 AGI 的发展趋势,你能想象在一个象限里,一是 AGI 开始的时间线还是缓慢的,之后 AGI 发展的速度短暂起飞或快速起飞。我以为短时间 AGI 发展起飞慢是最安全的也是我最盼望我们进入的区域。我想确保我们能慢速起飞。
尔子:你与马斯克在安全成绩上存在一些分歧。
Sam Altman:至少埃隆说过他很是关心人工智能的安全成绩,并且真的很担心,我以为他不会在不安全的情况下参加竞赛。
在某些方面当然是肯定的。我们花了无数时间讨论安全的重要性,我以前就说过。
尔子:是的。但我以为,在这方面的合作对每个人都是有益的。
Sam Altman:这不是他擅长的工具。
尔子:他以关心人类而闻名,让人类从合作中受益。最后,我真心盼望人性能战胜一切。
Sam Altman:我在想,前几天有人提醒我,在他超越杰夫・贝佐斯成为全国首富的那天,他在 X 上向杰夫・贝佐斯颁发了一枚银牌。我盼望随着人们开始研究 AGI,这样的事变会少一些。
尔子:我同意。埃隆是我的朋友,他是一个有理想的人,也是有史以来最重要的人之一。
Sam Altman:埃隆的神奇之处在于,我很是尊重他。我想我们需求他。我们所有人都该当支持他,并需求他在接下来的阶段作为领导者挺身而出。
谷歌和 Gemini
尔子:在搜索的帮助下,谷歌在过去的 20 年里一直占据着主导地位,在全国信息获取、互动形式等方面。目前谷歌感到很是紧张,但对于这个领域的所有人来讲,他们都在思虑,人们将如何获取信息?就像你说的,人们会以 GPT 为起点。那么,OpenAI 是否会真正承担起谷歌 20 年前开始做的这件事,也就是「获取信息」?
Sam Altman:我觉得这很无聊。我的意思是,如果成绩是我们能否打造一个比谷歌或其他公司更好的搜索引擎,那么当然,我们该当去做,人们该当使用更好的产品,但我以为这太不值一提了。谷歌向你展示 13 个广告,然后是 10 个蓝色链接,这是寻找信息的一种形式。但让我感到兴奋的并不是我们可以复制谷歌搜索,而是或许有更好的方法可以帮助人们查找信息、采取行动并综合信息。事实上,我以为 ChatGPT 在某些用例中就是这样,盼望我们能让它在更多用例中都能如此。
但我不以为「我们如何比谷歌更好地为你提供 10 个排名靠前的网页」多有趣,还不如「我们如何帮助你得到你需求的答案或信息?」,展开说就是:在某些情况下,我们如何帮助你创建答案或信息;在另一些情况下,我们如何帮助你综合答案或信息;在另外一些情况下,我们如何帮助你找到答案或信息?
无数人都想做一个比谷歌更好的搜索引擎,这是一个很难解决的技术成绩,也是一个很难解决的品牌成绩,更是一个很难解决的生态系统成绩。我以为全国不需求另一个谷歌。
尔子:那么将聊天客户端(如 ChatGPT)与搜索引擎集成在一起呢?
Sam Altman:那就更酷了。
尔子:这很酷,但很棘手。如果你只是简单地做,会很尴尬,因为如果你只是把它塞进去,也会很尴尬。
Sam Altman:正如你可能猜到的,我们对如何做好这一点很感兴趣。这就是一个很酷的例子。LLM 和搜索的交集,我想还没有人破解过。我很想去做这件事,那一定很酷。
尔子:广告方面呢?你有没有考虑过货币化?
Sam Altman:作为一种审美选择,我有点讨厌广告。我以为,出于种种原因,广告需求出现在互联网上,让它发展起来,但这只是一时的行业。现在的全国更丰富了。我喜欢人们为 ChatGPT 付费,并晓得他们得到的答案不受广告商的影响。我相信有一个广告单元对 LLM 来讲是有意义的,我也相信有一种方法能以不带偏见的形式参与到交易流中去,但这也很容易让人联想到对未来的悲观想象:你问 ChatGPT 一些成绩,然后它会说「哦,你该当考虑一下购买这个产品」或者「你该当考虑一下去这里度假」之类的。
我不晓得,我们有一个很是简单的商业模式,我喜欢它,我晓得我不是产品。我晓得我在付钱,这就是商业模式的运作形式。而当我使用 Twitter、Facebook、谷歌或其他伟大的产品时,我并不喜欢这类广告支持的伟大产品,而且我以为在有人工智能的全国里,这类情况会变得更糟,而不是更好。
尔子:我可以想象人工智能会更好地展示最佳版本的广告,其中的广告都是你真正需求的工具。但这样的系统是否总能让广告驱动所展示的内容呢?是的,我以为维基百科不做广告是一个很是大胆的举动,但这也使得维基百科的商业模式极具挑战性。所以你的意思是说,从商业角度来看,OpenAI 目前的做法是可持续的?
Sam Altman:嗯,我们必须弄清楚如何发展,但看起来我们会弄清楚的。如果成绩是我是否以为我们可以拥有一项伟大的业务,在没有广告的情况下满足我们的计算需求,我以为答案是肯定的。
尔子:嗯,很有盼望。我也不想完全抛弃广告……
Sam Altman:我不是这个意思。我想我是说我对广告有偏见。
尔子:是的,我也有偏见,只是总体上持怀疑态度。就界面而言,我个人对蹩脚的界面深恶痛绝,这也是为什么 AdSense 刚问世时,相对于动画横幅或其他形式,是一个很大的飞跃。但我觉得,在广告方面该当有更多的飞跃,而不是干扰内容的消费,也不是以一种大的、根本性的形式进行干扰,这就像你刚才说的,就像它会操纵真相来迎合广告商一样。
GPT-5 的跃升
尔子:从 GPT-4 到 GPT-5 的飞跃中,你对哪些方面感到兴奋?
Sam Altman:我很高兴能变得更聪明。我晓得这听起来像是一个花言巧语的回答,但我以为真正特别的地方在于,它并不是在这个领域变得更好,而在其他领域变得更糟,而是全面发展。我以为,这才是超酷的。
尔子:是的,有这样一个神奇的时刻。我是说,你会遇到一些人,你会和一些人出去玩,你会和他们交谈。你无法用语言表达,但他们懂你。这不是智力成绩,而是别的工具,这大概就是我对 GPT 进展的描述。这并不是说,你可以指出,「看,你没有理解这个或那个」,但这只是在多大程度上存在这类智力上的联系。你会感觉到,在你所做的蹩脚的表述提示中,你理解了成绩背后更深层次的成绩。是的,我也为此感到兴奋。我是说,我们都喜欢被倾听和理解。
这类感觉很奇怪。在编程方面,展望未来,你以为 5 到 10 年后人类会做多少编程处事?
Sam Altman:我的意思是,会有无数,但我以为形式会大不相同。或许有些人会完全用自然语言编程。
尔子:完全用自然语言?
Sam Altman:我是说,没有人会用代码编程。有些人是这样。没人再用打卡机编程了。我相信你能找到会编程的人,但你晓得我的意思。
尔子:是的,很少。我一直在找 Fortran 编程的人,连 Fortran 都很难找。我明白你的意思,但这也改变了我们所说的程序员的技能或倾向。
Sam Altman:改变了技能组合。至于改变了多少,我不确定。
尔子:编程很难。就像如何缩小最后 1% 的差距?这有多难?
Sam Altman:是的,我以为在其他大多数情况下,最优秀的从业者都会使用多种工具。他们会用自然语言做一些处事,当他们需求用 C 语言写一些工具时,他们就会这么做。
尔子:我们是否会在某个时候看到来自 OpenAI 的仿人机器人或仿人机器人大脑?
Sam Altman:会的。
尔子:具身人工智能对你来讲有多重要?
Sam Altman:我以为,如果我们有了人工智能,而在物理全国中完成事变的唯一方法就是让人类去做,那就太令人沮丧了。所以我真的盼望,作为这个过渡的一部分,作为这个阶段性变化的一部分,我们也能获得仿人机器人或某种物理全国的机器人。
尔子:OpenAI 在机器人技术方面有一些历史和相当多的处事经验,但在伦理道德方面还做得不够。
Sam Altman:我们是一家小公司。我们必须很是专注。另外,机器人在当时之所以难以普及,原因是错误的,但我们会在某个时候以某种形式重返机器人领域。
AGI
尔子:你以为人类什么时候能达到 AGI?
Sam Altman:我以前很喜欢猜测这个成绩。后来我意识到,这个成绩很不成熟。而且人们对 AGI 的定义也大相径庭。因此,我以为更有意义的做法是,讨论我们什么时候才能建立起具有 X、Y 或 Z 功能的系统,而不是模糊地讨论我们什么时候才能跨过这一里程碑。AGI 也不是终点。它更接近于一个里程碑式的开端。不回避这个成绩,我预计到在下个十年的末期,甚至可能更早,我们将拥有相当强大的 AI 系统。我们看着它,会说:"哇,这真的很了不起。" 如果我们现在就能看到这么强大的系统, 或许到那时我们已经完全适应了 AGI 生活。
尔子:但如果你给阿兰・图灵展示 ChatGPT 3.5,90 年代的人或许会说:「这绝对是 AGI」,该当会有无数计算机专家会说:「这就是 AGI」。
Sam Altman:是的。但我不以为 ChatGPT 3.5 改变了全国。它或许改变了全国对未来的预期。它的确让更多人认真对待 AI 相关的成绩,并让我们的生活走上了新的轨道。这一点也很是重要,我不想低估 ChatGPT 3.5 的作用。如果我发完 ChatGPT 3.5 就退休了,我可能会对我的职业生涯很是满意,但我不以为在回首往事时,提到 ChatGPT 3.5 时说的是:「那是一个真正改变了全国的门槛」。
尔子:所以对你来讲,你正在追寻能改变全国的重大转变?
Sam Altman:对我来讲,这就是 AGI 的部分含义。
尔子:这类转变是奇点级别的转变吗?
Sam Altman:不,肯定不是。
尔子:那么对于重大转变,类似互联网、谷歌搜索这类级别的,你觉得现在的转变点是什么?
Sam Altman:你感觉现在的全球经济与我们推出 GPT-4 之前有什么不同吗?我觉得你的答案是:没有。
尔子:确实没有。对无数人来讲,它可能只是一个很是好用的工具。它能帮你解决无数成绩,但感觉并没有什么颠覆性的改变。所以,你真正想说的是?
Sam Altman:我是说,人们对 AGI 有各种不同的定义。所以或许你的定义和我不同。但对我来讲,我以为改变全球经济该当是 AGI 的一部分。
尔子:戏剧性的转变时刻可能还等候在未来。对你来讲,AGI 将会出做什么令人印象深刻的事变?你是离 AGI 最近的人了。
Sam Altman:我不晓得我对 AGI 的定义是否正确。但我以为,当一个系统能够显著提高科学发现的速度时,这就是一件大事。大多数真正的经济增长都来自科技进步。
尔子:我同意你的观点,这也是我不喜欢近年来质疑科学的言论的原因。
Sam Altman:完全同意。
尔子:实际的、可测量的科学发现。但哪怕只是看到一个 AI 拥有真正的直觉、科学直觉,那也是不可思议的。
Sam Altman:是的。
尔子:你可能会成为构建 AGI 并能够与它交流的人,你会和它讨论些什么?
Sam Altman:OpenAI 的研究人员肯定会在我之前和 AGI 交流。正如我们之前所讨论的,这是一个错误的思维框架。如果有人对我说:「好的,Sam,我们完成了。这是一台笔记本电脑,这就是 AGI。你可以去和它交流了。」第一个 AGI 不会是这样的。我不以为我会问它:「给我解释一下物理的大统一理论,物理的万物理论。」不过这是我最想问它的成绩。
尔子:你可以先问判断是或否的成绩,比如:「这类理论存在吗?它能存在吗?」
Sam Altman:那么,我以后先问这些成绩。
尔子:是还是不是。然后基于此,「那里还有其他外星文明吗?是还是不是?你的直觉是什么?」然后你就问这个。
Sam Altman:不过,我的意思是,我不指望第一个 AGI 能回答这些成绩,即使只用 「是 」或 「否」来回答。但如果它能,我会首先问你教我的成绩的。
尔子:或许你可以开始分配概率?
Sam Altman:或许吧。或许我们需求先发明更多的技术,测量更多的数据。
尔子:哦,我明白了。只是没有足够的数据。如果它(能获得足够的数据),那么 AGI…
Sam Altman:我的意思是,或许它的回答是:「你想晓得这个物理成绩的答案,我需求你制造这台机器,进行这五次测量,然后告诉我……」
尔子:在数学方面,或许 AGI 能证明一些定理。你对正式探索思维逻辑这方面也感兴趣吗?
Sam Altman:Emmm。
尔子:谁首先建造了 AGI,谁就会获得无数权力。你相信自己能承担那么多权力吗?
Sam Altman:我会很是诚实地回答这个成绩。我相信我或者其他任何人都不该当对 OpenAI 或 AGI 拥有完全的控制权。我以为需求一个健全的治理系统。比如去年我们董事会的所有「宫斗」。我最初没有提出反对,只是想着,「是的。这是董事会的意愿,尽管我觉得这是一个很是糟糕的决定。」后来,我明确地反对了。我可以解释我前后决策的细微差别,以及为什么后来我觉得可以反对那个决定了。但正如许多人所看到的,尽管董事会在法律上有权解雇我,实际上它并没有完全起效。这本身就是一种治理失败。在这里,我要为当时我的具体情况辩护两句。我以为大多数人都会同意我说的。但经历一系列抓马的「宫斗」事件之后,我很难直视着你的眼睛,对你说,「嘿,董事会还可以随时解雇我。」我从来没有独裁 OpenAI 的想法。我从未有过,也从未想要过超级控制权。即使在所有这些疯狂的事变之后,我仍然不想要。我一直以为公司没有资格对涉及社会方面对成绩做决定,我们真的需求政府来制定规则。
不过我又意识到,这意味着像 Marc Andreessen(著名硅谷投资人、Mosaic 浏览器开发者,因马斯克起诉,OpenAI 发布声明,Marc 质疑其中不开源,但每个人都能从 OpenAI 构建的成果里受益的观点,嘲讽道:「怎么不立刻把你的实验室国有化、军事化呢?」)这样质疑 OpenAI 这样的人,他们会说 OpenAI 被规则俘虏了。(规则俘虏:一种政治腐败或政府行政失败的现象。指政制定了某种公共政策或法案,在损害公众利益的状况下,使特定领域商业或政治上的利益团体受益)我不愿意在这方面被误解。这不是真的。时间将会证明为什么这一点很重要。我为 OpenAI 做出了无数糟糕的决定,也有无数好的决定,我对过去的总体表现还是挺骄傲的。但我以为任何一个人都不该当有,我也不以为任何一个人将会有控制 AGI 的权力。现在思虑这个成绩还比较抽象,但 AGI 正在整个社会中以一种良好和健康的形式发生。但我以为任何一个人都不该当有控制 AGI 的权力,或者向 AGI 发展的方向。这样的事变现在也在发生。
尔子:感谢你的分享。你的想法很有洞察力,特别是你晓得董事会在法律上有权解雇你,但人类可以操纵大众,从而凌驾于董事会之上等等。但我以为这个故事还有更正面的版本:即人民仍然拥有权力,所以董事会也不能过于强大。这其中存在权力的平衡。
Sam Altman:权力平衡当然是好事。
尔子:你担心失去对 AGI 的控制吗?无数人担心的不是国家统治者,不是安全成绩,而是 AI 本身存在的风险。
Sam Altman:就我目前的看法而言,这不是我最担心的成绩。曾经有一段时间我对此很是担心。未来可能继续成为我最担心的成绩。但现在这不是我最担心的成绩。
尔子:你不担心 AGI 失控是为什么呢?因为还有无数其他事变需求你担心,对吧?你会被 AGI 失控吓到吗?我们 ——
Sam Altman:当然。
尔子:…… 可能会被吓到?
Sam Altman:当然。说这不是我最担心的成绩并不意味着我们不需求关注它。我们需求努力解决这个成绩。虽然这很是困难,但我们这里有很棒的人在从事相关处事。还有无数事变需求被适当地处理。
尔子:对你来讲,现在要逃出这个「思维定式」很难吧,考虑到网上的言论…
Sam Altman:我们之前谈到了戏剧性风险。那就是一种戏剧性风险。这可以改变人们对这个成绩的普遍看法。有一大群很是聪明又怀有很大善意的 AI 安全研究人员过分关注这个成绩。我以为他们没有取得太多进展,但却过分纠结于这个成绩。我实际上很高兴他们这么做,这个成绩需求被关注。但太过关注会使得无数其他很是重要的与 AI 相关的风险被排除在讨论之外。
尔子:鉴于 Sora 生成模拟全国的能力,如果你有过我们生活在由 AI 系统生成的模拟全国的想法,Sora 是否增加了你的信念?
Sam Altman:有点吧。我不以为 Sora 是最有力的证据。我以为每个人对我们能够生成全国这一事实都或多或少增加了点信念吧,或者至少增加了对这个观点的开放性。但我确信我们最终能够做到类似 Sora 所预示的事变。它发生得比我想象的要快,但我猜那将不是一个重大的更新。
尔子:是的。但事实是…… 而且可以预见,它会变得越来越好…… 你可以基于训练数据生成全新的全国,用 AI 做到这一点似乎很容易。创建宇宙、一个或超现实或很真实的电子游戏全国都将变得很容易。那么先通过 VR 头显,再基于物理的层面上,迷失在那个虚拟全国中又会有多容易呢?
Sam Altman:最近有人和我讨论过这个成绩。有时候会有这些听起来很简单但令人迷惑的见解。举个例子,比如平方根函数,四的平方根,没成绩。二的平方根,好的。很容易就能给一个孩子解释清楚这些简单的平方根的概念,通过观察一些简单的几何也能看到,你再问负一的平方根是什么?这和你提出的成绩类似,令人迷惑的原因在于负一的平方根将你带入了另一种现实。
你可以想出无数其他的例子,但我以为这个平方根运算符在无数关于新知识领域的想法都适用的。我以为有无数这样的运算符。我以为,人们之所以会以为自己所赞同的模拟假说都比之前更有可能成真,其中有无数运营的成分。但对我来讲,Sora 的处事并不是我最关心的五件事之一。
尔子:我确实以为,从广义上讲,人工智能将是通往另一波 C 级现实的最佳通道。
Sam Altman:这似乎是肯定的。
尔子:你以为当我们仰望天空时,还有其他的外星文明,智能的文明存在吗?
人类智慧
Sam Altman:我觉得答案是肯定的。费米悖论很是令人费解。
尔子:我觉得智能不擅长处理这样强大的技术。与此同时,我相信外面存在着大量的外星智慧文明,只是太空旅行真的很难。这也让我思虑智能的本质。或许我们真的对智能的本质视而不见,或许 AI 能帮助我们看清这一点。这并不像 IQ 测试和简单的解谜那么简单,还有一些更重要的工具。那是什么让你对人类的未来充满盼望?
Sam Altman:我觉得过去的工具无数。我的意思是,我们只要看看人类在不长的时间里做了些什么,巨大的成绩,深刻的缺陷,无数让人超级羞愧的事变。但总的来讲,很是鼓舞人心。给了我无数盼望。
尔子:我们一起向更美好的未来迈进。
Sam Altman:我其实很好奇,AGI 是更像某个单一的大脑,还是更像我们所有人之间的社会支架?你与你的曾曾曾祖父母的基因变化不大,但能力却大不相同,所晓得的也大不相同。这并不是因为生物学上的变化。你可能变得更健康了一些,这是因为有了现代医学,你也吃得更好了,等等。但你所拥有的,是人类共同创造的。一个人是没法儿制造 iPhone 的,一个人也没法儿去发现所有的科学。但你可以使用它,这类共同创造给了你难以置信的能力。从某种意义上说,我们共同创造了这一切,这让我对未来充满盼望。这是一件集体性很强的事变。
尔子:是啊,我们站在巨人的肩膀上。当我们谈到 AI 风险时,你提到有时你会担心自己的生命安全。你想过自己的死亡吗?你害怕死亡吗?
Sam Altman:如果我明天就中枪了,而且我今天就晓得了,我会说,「哦,那太可悲了。我想直到接下来将发生什么,这很让人好奇。」不过,大多数时候,我都会为自己的生命感到庆幸。
尔子:我也是。现在这样的生活太棒了,我可以享受到人类的伟大创造,我相信 ChatGPT 就是其中之一,还有 OpenAI 所做的一切。Sam,很荣幸能再次与你交谈。
Sam Altman:很高兴与你交谈。感谢您的邀请。
参考链接:https://lexfridman.com/sam-altman-2-transcript