感谢IT之家网友 lemon_meta 的线索投递!
【新智元导读】突然间,AGI 已经成为了一个新的「5 年内实行」的现在技能。从 Altman 到老黄,都在不同场合意味,达到人类智能水平的 AI 将很快到来。而技能路径和现在能够呈现的动力缺乏,能够是达到 AGI 过程中的最大变数。
Claude 3、Sora、Gemini 1.5 Pro 的纷纷呈现,以及或许今年内就会被放出的 GPT-5,让所有人都不约而同地隐隐感觉:我们似乎离 AGI 似乎越来越近了。
OpenAI CEO Sam Altman 坚定地认为,AGI 将在 5 年内实行。不过,还需求我们耐心地等待。
英伟达 CEO 黄仁勋的观点与 Altman 不谋而合:如果我们对「像人类一样思考的计算机」的定义是通过人体尝试能力,那么 AGI 在五年内就会到来。
谷歌机器人工程师 Alex Irpan,在 LLM 呈现后,修正了自己原先对 AGI 呈现时间的猜测:4 年前,他认为 AGI 在 2035 年呈现的几率是 10%;现在,AGI 在 2025 年,就有 10% 的几率呈现。
更惊人的是,猜测大神 Jimmy Apples 曾在去年爆料:AGI 其实已经在内部实行了。
初创公司 Runway CEO 兼 AI 投资人 Siqi Chen 也曾在去年意味,GPT-5 预计在 2023 年底完成训练,OpenAI 期待它达到 AGI 水平。
如此说来,马斯克的横插一脚,让 AGI 进程的加快损失重大……
离职 OpenAI 员工 Logan.GPT 意味,接下来的十年,将是人类历史上最重要的十年。
在这十年里,我们必定会拥有超人 AI!
不过细思恐极的一个问题是,AI 实在是太耗水耗电了!
比来,ChatGPT 耗电量惊人的话题,就上了微博热搜。
前几天流传的 PDF 曝出,OpenAI 新模型 Q * 的参数很能够达到了 125 万亿。让我们算一算,如果 AGI 真的呈现,一天要耗费多少电能?
此外,马斯克在比来一个公开采访中意味,芯片缺乏缓解,限制 AI 发展的将是电力和降压变压器的缺乏。
而获取高效清洁动力的方法,会直接影响 AGI 的到来。
Altman:AGI 五年内实行
Sam Altman 在一本讨论 AI 现在发展方向的书「Our AI Journey」中说到,AI 将能完成 「营销职员、策略规划职员和创意专业职员 95% 的工作」。
(这本书采用订阅模式。新章节完成后就会发布)
他还说,AGI 将在 「5 年内成为现实」。
这本书收录了两位商业创新者 Adam Brotman 和 Andy Sack 对包括 Altman 在内的顶级人工智能领导者的深度访谈。
Brotman 是 Forum3 的联合创始人和联合首席执行官,此前曾担任星巴克首任首席数字官。Sack 也是 Forum3 的联合创始人和联合首席执行官,曾任微软首席执行官 Satya Nadella 的顾问。
他们之前的背景表明他们不是那种只会说空话的人。
Altman 讲述的内容总是能刷新读者认识的上限。
Altman 认为,「当 AI 能够独立完成创新的科学突破时,它就能被称为 AGI 了」。
两位作者想知道 AGI 将如何影响他们的工作:市场营销。
于是他们问 Altman,AGI 对那些想要通过创作广告活动来建立消费品牌的市场营销职员意味着什么?
这时,Altman 抛出了他的第一个知识炸弹:
意味着营销职员今天使用代理公司、策略规划师和创意专业职员所做的 95% 的工作都将由人工智能轻松、近乎即时、几乎无成本地处理。
这一切内容都能做到免费、即时完成和近几乎完美可用。图片、视频、活动创意方案都没有问题。
而且 AI 很能够能够根据真实或合成的目标客户来尝试创意,以猜测结果并进行优化。
Altman 称 AGI 即将到来
两位作者再继续追问 Altman,你认为 AGI 将在何时成为现实?
Altman 回答到:
5 年左右,也许会稍长一些 —— 没有人能说出一个确切的时间,也没有人知道它对社会的影响到底是什么。
这本书的作者 Roetzer 说,就算现在 AGI 还没有呈现,人类就已经能看到经济、劳动力、教育和社会的大规模变革正在产生了。
就前不久,大型支付公司 Klarna 刚刚透露,它的 AI 助理现在已经能胜任 700 名员工的工作。
这个 AI 客服由 OpenAI 提供支持,处理客户的各种咨询,支持多语言,能够直接处理退款和退货的请求。
Klarna 意味,在短短一个月内,AI 助手就完成了 700 名全职客服的工作。
到目前为止,它已经进行了 230 万次对话,占公司所有客户服务对话的三分之二。
它的客户满意度得分与人工客服「不相上下」。
而且,它在解决客户请求方面更准确、更快速。解决请求的平均时间从 11 分钟降至 2 分钟。
Klarna 的 CEO 暗示社会需求为先进的人工智能做好准备:
这凸显了人工智能将对社会产生的深远影响。
我们希望社会和政界人士对 AI 带来的影响有慎重考虑,并相信全面、透明的管理对于我们社会应对这场变革至关重要。
老黄:AI 会在五年内通过人类尝试,现在 10 年算力将再提高 100 万倍
老黄也同意这个观点,认为 AGI 将很快到来。
比来,英伟达 CEO 黄仁勋意味:AI 会在五年内通过人类尝试,AGI 将很快到来!
在斯坦福大学举行的一个经济论坛上,黄仁勋回答了这个问题:人类何时能创造像人类一样思考的计算机?这也是硅谷的长期目标之一。
老黄是这样回答的:答案很大程度上取决于我们如何定义这个目标。
如果我们对「像人类一样思考的计算机」的定义,是通过人体尝试能力,那么 AGI 很快就会到来。
五年后,AI 将通过人类尝试
老黄认为,如果我们把能想象到的每一个尝试都列出一个清单,把它放在计算机科学行业面前,让 AI 去完成,那么不出五年,AI 会把每个尝试都做得很好。
截至目前,AI 可以通过律师考试等尝试,但是在胃肠病学等专业医疗尝试中,它依然举步维艰。
但在老黄看来,五年后,它应该能通过这些尝试中的任何一个。
不过他也承认,如果根据其他定义,AGI 能够还很遥远,因为目前专家们对于描述人类思维如何运作方面,仍然存在分歧。
因此,如果从工程师的角度,实行 AGI 是比较难的,因为工程师需求明确的目标。
另外,黄仁勋还回答了另外一个重要问题 —— 我们还需求多少晶圆厂,来支持 AI 产业的扩张。
比来,OpenAI CEO Sam Altman 的七万亿计划震惊了全世界,他认为,我们还需求更多的晶圆厂。
而在黄仁勋看来,我们的确需求更多芯片,但随着时间推移,每块芯片的性能就会变得更强,这也就限制了我们所需芯片的数量。
他意味:「我们将需求更多的晶圆厂。但是,请记住,随着时间的推移,我们也在极大地改进 AI 的算法和处理。」
计算效率的提高,需求并不会像今天这么大。
「我会在 10 年内,将计算能力提高一百万倍。」
马库斯泼冷水:GPT-5 在 2024 年不会呈现
一直唱反调的马库斯也做出了截止 2024 年底全新的猜测 ——
我们能够会见证:
– 大约 7 到 10 款与 GPT-4 相当的模型问世
– 在技能上不会有革命性的突破(没有推出 GPT-5,或者 GPT-5 并未达到预期)
– 市场上将呈现激烈的价格竞争
– 几乎没有公司能够形成明显的护城河
– 尚无有效的方法来解决 AI 产生的幻觉
– 企业对这些技能的采纳将保持在一个适度的水平
– 利润相对适中,将在这 7 到 10 家公司之间分配
网友意味,还有 11 个月就能见证这个结果了。
为了证明自己的猜测绝对影响力,马库斯还抛出了自己曾在 2001 年猜测的模型幻觉问题。
以及两年前,2022 年 3 月 10 日,曾发表了一篇「深度进修正在碰壁」的观点文章。
文章发表一个月后 DALL・E 问世,Sam Altman 发文嘲讽,「请给我一个平庸的深度进修怀疑论者般的自信……」
而在 11 日,马库斯再次意味「即便过了 2 年,深度进修依旧面临同样的根本性挑战」!
也就是说,人类靠深度进修到达 AGI,遥不可及。
https://garymarcus.substack.com/p/two-years-later-deep-learning-is?r=8tdk6&utm_campaign=post&utm_medium=web&triedRedirect=true
文中他列举了多个例证,来说明这些观点至今依旧成立:
– 深度进修从根本上说是一种识别模式的技能,当我们需求的只是粗略的结果时,深度进修就能发挥出最大的作用。
– 目前的深度进修系统经常会呈现愚蠢的错误。
– 扩大参数规模的争论 —— 那些已经扩大参数规模的研究,并没真正改进 LLM 迫切需求的东西 ——「理解力」。Kaplan 等 OpenAI 团队所提出的衡量标准 —— 关于猜测下一个单词,并不同于 AI 就实行深度理解。
– 「scaling laws」仅是观察到的现象,就像摩尔定律一样,能够不会永远有效。
论文地址:https://arxiv.org/pdf/2001.08361.pdf
当然,马库斯最后意味,AGI 并非不可以实行,而是人类需求一次范式转变。越来越多的结果说明,LLM 本身不是通向 AGI 的终点答案。
与此同时,图灵巨头 LeCun 在比来的博客采访中,也谈到 ——AGI 离我们还很远。
在这个访谈中,LeCun 还提到了,「婴儿只有在已经了解了物质世界如何运作的基础知识之后,才能习得语言。很多物理知识都是内化的,无法用语言来描述,因此 LLM 也无法理解」。
吴恩达也参与了 AGI 的讨论,并意味 AGI 只会慢慢到来,而非一夜之间。
斯坦福团队凭借「大模型涌现能力是海市蜃楼」获得 NeurIPS 杰出论文奖,论文中提到大模型涌现能力的呈现是因为研究职员度量选择,而不是因为模型行为,随着参数规模变化而发现根本变化。
当许多人突然意识到一项技能(也许是发展已久的技能)时,公众的感知就会呈现断崖式的变化,从而会纷纷感到惊讶。
但人工智能能力的增长,比人们想象的要持续得多。这就是为什么我预计通往 AGI 的道路将包括许多前进的步骤,进而让系统的智能化程度逐步提高。
ChatGPT 耗电量惊人,人类撑得住 AGI 吗?
虽然 AI 模型已经在飞速发展,但比来的一个大问题已经让人揪心:它们实在太耗电了!
人工智能是动力的无底洞,AI 现在将会被动力卡脖子。
包括 Sam Altman 在内的越来越多的 AI 行业大佬意味,AI 的第一性原理,最重要的部分就是动力和智能的转化率的问题。
因为 Transformer 本质上不是一个能效很高算法,所以在现在,动力将会是困扰 AI 发展的一个大问题。
马斯克比来在一个公开采访中意味:
AI 是有史以来最大的技能革命,我从未见过任何技能进步比现在的 AI 更快。
芯片缺乏的情况能够已经过去,但人工智能和电动汽车正在以如此迅猛的速度扩张,以至于明年世界将面临电力和变压器的供应紧缩。
现在 AI 对算力的需求差不多每半年就会增加 10 倍。显然,这种情况不能够永远以如此高的速度持续下去,否则会超过宇宙的质量。
AI 计算的瓶颈是可以预见的…… 一年前,缺乏的是芯片。
然后下一个缺乏将是电力。当芯片缺乏缓解之后,明年能够就会呈现电力将不不足以运转这些芯片。
然后,很容易猜测下一个缺乏将是降压变压器。
如果电网输出 100-300 千伏的电压,然后必须一路降压至 6 伏,那么降压幅度就很大。
这有一个不是那么好笑的笑话,现在运行 Transformer 的变压器(Transformer)将呈现缺乏。
Hinton:有 1/10 概率,AI 会杀死人类
AGI 真正实行那天,终结者中那一幕也在迫近。
「数字智能会取代生物智能吗」?
「几乎可以肯定,会的」!
「我们人类应该尽最大努力存活下来」。
AI 教父 Hinton 近日在牛津大学发表了最新演讲,给出了惊人言论 —— 在 5-20 年内,每个人都有 1/10 的概率被 AI 被杀死。
图灵奖得主 Bengio 也持有同样的观点,即有 1/5 的能够性,我们会被杀死。
Hinton 意识到,日益强大的 AI 模型可以像「蜂巢思维」一样,相互分享所学知识,从而相对于人类更具优势。它们能够是一种更好的智能形式。
就比如,GPT-4 可以进修语言,会推理、讽刺,还会展现出极高的同理心。
他在演讲中说,「我要做出一个非常有力的声明,这些模型确实能理解」。
这些模型也能够以危险的方式「进化」,形成一种控制的意向性。如果我为政府提供建议,我会说这些 AI 有 10% 的能够性会在现在 20 年内消灭人类。我认为这将是一个合理的数字。
不仅如此,AI 界大佬在「关于人工智能杀死所有人的能够性有多大」的问题时,认为有 25-49% 概率的人最多。
不同的人 / 组织对 AI 灭世的概率猜测。
AI 真的会杀死人类吗,你怎么看?
参考资料:
https://www.marketingaiinstitute.com/blog/sam-altman-ai-agi-marketing
Prediction: By end of 2024 we will see
• 7-10 GPT-4 level models
• No massive advance (no GPT-5, or disappointing GPT-5)
• Price wars
• Very little moat for anyone
• No robust solution to hallucinations
• Modest lasting corporate adoption
• Modest profits, split 7-10 ways— Gary Marcus (@GaryMarcus) March 10, 2024
本文来自微信公众号:新智元 (ID:AI_era)