李飞飞、吴恩达开年对话:AI 寒冬、2024新突破、智能体、企业AI

李飞飞、吴恩达畅谈 2024 AI 趋势。在人工智能发展史上,2023 已经成为特别很是值得纪念的一年。在这一年,OpenAI 引领的 AI 大模型浪潮席卷了整个科技畛域,把实用的 AI 工具送到了每个人手里。但与此同时,人工智能的发展也引起了广泛的会商和争议,尤其在其贸易应用和未来发展前景方面。著名 AI 专家 Rodney Brooks 在 2024 年初发文预言,以为 AI 能够即将进入一个新的寒冬,随着泡沫的破裂,行业能够面临严峻的挑战。他的这一言论引发了业界的广泛会商:新的一年,AI 畛域将会迎来更多的炒作,

李飞飞、吴恩达畅谈 2024 AI 趋势。

在人工智能发展史上,2023 已经成为特别很是值得纪念的一年。在这一年,OpenAI 引领的 AI 大模型浪潮席卷了整个科技畛域,把实用的 AI 工具送到了每个人手里。但与此同时,人工智能的发展也引起了广泛的会商和争议,尤其在其贸易应用和未来发展前景方面。

著名 AI 专家 Rodney Brooks 在 2024 年初发文预言,以为 AI 能够即将进入一个新的寒冬,随着泡沫的破裂,行业能够面临严峻的挑战。他的这一言论引发了业界的广泛会商:新的一年,AI 畛域将会迎来更多的炒作,还是进入低谷?与此同时,还有不少人担心,AI 是不是会取代更多人的处事?

在前不久的国际消费类电子产品展览会(CES)上,两位著名 AI 科学家、斯坦福大学教授李飞飞和吴恩达以此为契机展开了会商。此外,他们还会商了:新的一年,哪些 AI 技能将迎来新的突破?AI 智能体的崛起意味着什么?对生成式 AI 准确性存在顾虑的企业要怎么用好这项技能?

以下是本次会商的视频内容:

李飞飞、吴恩达开年对话:AI 寒冬、2024新突破、智能体、企业AI

原视频链接:https://videos.ces.tech/detail/video/6344567556112/great-minds-bold-visions:-what% E2%80%99s-next-for-ai

为了方便大家收藏具体内容,机器之心还将视频整理成了文字版:  

主持人:首先我们来会商一下第一个课题,这个课题与人工智能的当前状态有关。去年无疑是人工智能炒作特别很是疯狂的一年。

我们的好朋友 Rodney Brooks 在 1 月 1 日发推说:「现在该穿厚衣服了,能够又一个人工智能寒冬即将来临,而且会特别很是寒冷。」那么,在新的一年,AI 畛域会迎来更多的炒作,还是低谷呢?

李飞飞、吴恩达开年对话:AI 寒冬、2024新突破、智能体、企业AI

吴恩达:我以为媒体会按照它们的方式去做事。但我们并不会进入寒冬,因为人工智能的贸易基础比以往任何时候都要坚实,甚至在生成式 AI 浪潮来临之前就已经如此。去年,人工智能真正起飞了。它能够推动了数千亿,甚至数万亿美元的市场,这点我不确定。至少对像谷歌这样的公司来说是数千亿美元,因为展示更相关的广告可以带来大量的收入。所以 AI 的贸易基础是存在的

其实,关于人工智能,最难懂得的一点是,它是一种通用技能。这意味着它不仅仅对一件事有用。它有点像电力这样的通用技能,如果我问你电力有什么用,你会觉得很难回答,因为它的用途太广了。人工智能也是如此。就我们今天所处的阶段来说,即使人工智能无法取得任何技能核心进展,当然它肯定会取得进展。即使没有,世界各地都有许多用例等待被发现和构建。所以我特别很是有信心,它的贸易基础将继续壮大。

李飞飞:是的,我大体上同意 Andrew(吴恩达)的观点。我们看到的是人工智能的另一个拐点,这个拐点始于庞大谈话模型的发展,特别是 ChatGPT 的首次推出以及后续模型的推进。

我认同 Andrew 的看法,AI 是一种深化的横向技能。作为一种深化的横向技能,它正成为下一次数字革命或工业革命的重要推动力。公共媒体的报道,会呈现波动,但这不是最关键的。重要的是,这项技能已经根植于我们的生活。它正在深入到所有垂直行业和消费者体验中,逐渐改变我们的社会、经济和政治结构。这是不争的事实。而且这种改变正在变得越来越明显。

主持人:让我们跳到你们对 2024 年重大突破的预测。你们以为今年 AI 的最大突破会是什么?

李飞飞:预测未来总是特别很是危险的,因为我说错的话会被引用。从计算机视觉和所谓的以像素为中心的 AI 畛域来说,我确实以为我们正处于特别很是激动人心的技能进步的边缘。我们一直在关注生成式 AI,我们一直在研究扩散模型,有人能够听说过 Gaussian splatting 或这方面的内容。我以为目前的技能浪潮中,有许多成果几乎就要实现突破了。我不确定它是否会像一年多以前的庞大谈话模型那样成熟,但我越来越多地看到这一点。我对此特别很是兴奋。

主持人:Andrew,你怎么看?

吴恩达:是的,我也有几个预测。首先,我们看到了庞大谈话模型的突破。我同意飞飞关于图像的看法。所以我看到的是,从庞大谈话模型到庞大视觉模型的转变。许多进步不仅仅在于图像生成,图像分析也在进步,它能提高计算机的视觉能力,这对自动驾驶汽车等畛域有很大的影响,比如任何带有摄像头的地方。这是第一点。

第二点我想说,你向 ChatGPT 提问,它会立即作出回应。但我更感兴趣的是自动化智能体的崛起。当你给 AI 系统一个指令,比如说「亲爱的 AI 系统,帮我做市场调研,对这个公司进行竞争分析。」智能体不会立即给出回应,而是规划一系列动作,比如进行网络搜索、下载网页、总结信息。它会去做半小时、一小时或一天的处事,然后带着答案回来。自动化智能体能够规划和执行一系列动作。它们现在刚刚起步,但在研究和贸易化方面有许多进展。我期待在接下来的几个月里,会有新的突破。

最后一点,能够也适用于 CS 畛域,我对边缘 AI 特别很是感兴趣。我经常在我的笔记本电脑上,运行庞大谈话模型。我经常用 GPT-4,也经常用 Bard。但许多人不知道的是,在你的笔记本电脑上运行庞大谈话模型实际上已经相当可行。虽然这些模型不像 GPT-4 那么大,但也够用了。我以为这件事意义深远。所有的 PC 制造商,难道不会想要销售给消费者一个更强大的 PC,让他们运用最新的 AI 技能吗?显卡通常是人们升级电脑的一个动因。我以为在你的笔记本电脑、PC 或你的工业 PC 上运行的边缘 AI,它的能力实际上比大多数人以为的要好得多。对 CS 畛域来说,我以为这将推动许多设备的销售。

李飞飞:我有一点点不同的意见。你提到了「自主智能体」,但我更倾向于将其称作「辅助智能体」。我们在当前的庞大谈话模型和这些庞大的基础模型中观察到,处理长尾课题依然是个挑战,无论是在幻觉现象还是其他方面。在许多处事环境中,为了提供高品质的服务和产品,关注长尾分布特别很是重要。因此,我以为更能够出现的是人机交互式协作。在这种形式下,辅助智能体既包含了自主处事的部分,也包含了与人类的协作部分。这比完全自动化更有能够成为现实。

吴恩达:确实如此(击掌)。我其实在一定程度上同意你的看法。我想分享我的经历。「自主智能体」这个词能够有些课题,但我在贸易畛域看到的是,大多数人更愿意让 AI 辅助人类,而不是替代人类,尤其是考虑到失业的课题,这是一个现实挑战。我不想忽视那些失业者的苦难。

我观察到的是,决定是否运用 AI 来自动化或取代人力,通常更多是基于贸易经济来考虑,而不是基于伦理。或许这应该是一个伦理决策,但诚实地说,当我与企业合作建立聊天机器人时,我看到大多数企业都会进行特别很是理性的经济评估。人类能够带来这些价值,人工智能能够带来那些价值,他们关心的是怎么做是最佳的经济决策,毕竟竞争者也在做相同的事情。我希望我们能说「不要取代人类的处事」,但不幸的是……

主持人:关于这种类型的 AI 智能体,我想引用 Mira Murati 的一句话。她说,「AI 智能体的概念并不新鲜,但现在我们正在向未来迭代,发展出具有智能和常识的智能体,它们懂得我们为什么要做某些事情。」

李飞飞:好的,我想补充一点,也对那个观点发表评论。我以为我们须要谨慎区分取代「处事」和取代「使命」。我相信,你我都看过相同的报告。报告表明,人类的每项处事实际上都是由多个使命组成的。我花了许多时间研究医疗保健。一名护士在值班的 8 小时里要完成数百项使命。AI 智能体确实在许多使命中发挥辅助和增强的作用,但我们须要慎用「处事」这个词。我确实以为,经济贸易决策与伦理社会决策并不是互斥的。这是一个更深入的会商,我知道你和我意见是一致的。

回到你关于这些智能体有懂得能力的课题。我以为这是一个特别很是微妙的术语,仅关注贸易方面。什么是懂得?有对数据中存在的形式的懂得,有对你所做决策的懂得,还有对任何人类使命意图的懂得。所以,实际上,我不会简单地用一个笼统的「懂得」这个词来描述今天的 AI 智能体。

主持人:你以为 AI 智能体会在何时达到什么程度?

李飞飞:我以为我们目前做得最好的是懂得数据中的形式,尤其是当我们有大量的训练数据时,我们做得特别很是好。我指的是庞大谈话模型,运用基于序列到序列的基于 transformer 的算法,我们真的做得很好,从数据中提取形式,以创造强大的预测模型。所以我以为,这能够是最前沿的。再次强调,我以为「懂得」要微妙得多。你们都来自贸易畛域,知道其中的细微差别,我以为还有更多处事要做。至于意图懂得,我以为我们只是触及了表面

吴恩达:我想回到使命的话题,因为我以为这很重要。我的团队为许多企业处事,偶尔我会接到首席执行官的电话。他们说:「嘿,Andrew,我读了关于 AI 智能体的文章,我该怎么做?」结果表明,有一种方法,它能帮助企业确定哪些使命应尝试用 AI 增强或自动化。正如飞飞所说,大多数处事由许多不同的使命组成。以放射科医师为例,放射科医师阅读 X 射线影像,他们须要获取病人的病史,操作机器、维护机器、指导年轻医生等等。所以放射科是一个例子,涉及许多不同的使命。我所见过的企业做法是观察你的团队,了解你所有员工实际上在做什么使命,并且不是在职位层面,而是在使命层面分析。这项使命在多大程度上适合用 AI 去增强或自动化以及业务投资回报率如何。每次我和企业一起做这个处事时,我们总是能想出许多点子,但我们没有时间去实施。所以 AI 的增强或自动化有许多机会

我学到的第二点是投资回报率最高的使命,往往不是人们最初所想到的那个。以放射科医师为例,人们通常会想到,哦,放射科医师就是看 X 光片的。这是你的脑海中关于这个职业的定位画面。但当我们去分解这项处事时,我们会发现有许多其他使命,比如收集病人病史之类的。这些使命能够更容易实现,而且投资回报率更高。所以我发现,系统地进行这个练习,通常有助于企业识别有价值的机会,然后进行构建与购买的决策,执行 AI 项目。

主持人这正是我想谈的下一个话题。让我们会商一些更加实际的课题,在与财富 500 强公司的合作中,你有没有发现,那些有着清晰的、可证明的、可实现的投资回报率的应用都有哪些共性?比如,你觉得这个房间里的大多数人应该专注于哪些应用?

吴恩达:如果我们广泛观察财富 500 强公司,我以为常见的应用是客户运营或客户支持。有许多公司试图增强或自动化客户支持。我以为软件工程也在转变。我们对软件工程师的支持远远超出了 Github Copilot。Github Copilot 是一个不错的工具,但我们能做的远不止这些。我以为销售运营也受到了很大影响。但对于特定企业而言,几乎每家公司都在做客户运营,所以你也应该认真考虑这个方面。但更激动人心的事情是,我和一家特别很是大的农业公司谈过,我们确定了一些使命。这不是你想到的那种收割使命,而是一些奇怪的使命。我们以为或许可以运用 AI,来大大节省他们的时间。所以,适合你的业务和行业特色的小众畛域,我以为通常更引人入胜。它们不仅有趣,还能创造出特定于行业的防御性飞轮效应。因为每个人最终能够都会购买一些通用的销售运营工具等,但那些特定于你业务的东西,你应该在内部构建,我觉得这些事情特别很是令人兴奋。

李飞飞:现在确实有各种各样的客户支持或运营解决方案。但我想补充的一点是,我们还可以在当前技能中寻找共同的机会。我以为有个结论今天依然成立,那就是,在数据最丰富的地方,你可以从中识别出可重复或有效的形式,无论是人类谈话形式、结构化数据形式还是图像数据形式。数据所在的地方,以及数据形式被证明在你的业务中有价值且可操作的地方,就是你应该关注的地方

主持人:让我们谈谈财富 500 强 CEO 能够面临的障碍。我们上周日举行了医疗保健峰会,会上有几位医疗保健 CEO 出席。我们问其中一位,你对数字创新最感兴趣的是什么?他说人工智能。然后我问他,作为 CEO,你最担心什么?他说,不准确性。

李飞飞:这是最难的行业之一。

主持人:你想对那些将不准确性上升为 CEO 级别关切的 CEO 说些什么?在你看来,还有哪些课题可以上升到这个级别?

李飞飞:就像我之前所说的,这取决于你的产品、你的服务以及结果的利害程度。在医疗保健、金融预测等许多行业中,长尾精确性特别很是重要。你不能承受人命损失或人身伤害,你不能承受银行出错。所以你须要了解你的行业,了解你的解决方案和服务,看看 AI 可以在哪里发挥真正的作用。这就关系到你说的炒作。当我与贸易高管交谈时,我们应该摒弃炒作,懂得这项技能能做什么,避免投资于那些 AI 还不擅长的方向。

主持人:那么飞飞,类似医疗保健这种涉及生死和高度监管的行业,他们想用生成式 AI,但又担心准确性课题,你想对他们说些什么?

李飞飞:Andrew 和我都在医疗保健畛域处事了很久。实际上,医疗保健中有大量的 AI 应用,从特别很是上游的药物发现开始,我们可以做许多事情。

主持人:我想说的是生成式 AI

李飞飞:这是一个信息过载的词。今天,每种 AI 都被称为生成式 AI。在 Andrew 和我的早期研究中,我们有特别很是具体的数学定义来定义生成式 AI。但现在,我们……

吴恩达:我们之前管它叫机器学习,但机器学习……

李飞飞:我们还曾经区分生成式 AI 和判别式 AI。如今,这种数学严谨性已经消失了。

吴恩达:是的,我觉得大众媒体已经接管了技能术语。技能界也只是跟着适应。

李飞飞:确实如此。所以,当你说生成式 AI 时,我假设你指的是那种大数据驱动的有预训练阶段的模型。有些人能够会将 transformer 和预测模型纳入其中,但我不确定是不是总是这样。但无论如何,我以为如果真的存在准确性课题,我们应该检查几个方面,比如这是模型的课题,还是数据质量的课题?是因为把 AI 引入流程才有了这个课题吗?导致结果不准确的贸易课题有许多。你要弄清楚这些课题,并尝试解决它们。有时候,例如在某些医疗诊断和治疗层面,你确实须要认识到限制的存在,如果风险太高,我们不能过度推进。

吴恩达:我补充一点,虽然我们运用 “生成式” 这个术语。但 AI 往往用于分析。我的团队已经做了许多项目,比如运用这些庞大谈话模型来阅读电子健康记录,试图得出结论,而不是撰写文本。即使你在写文本,如果你小心运用总结软件,也能得到不错的结果。它能够还会有一些错误,我以为在医疗保健环境中,如果某个场景风险不那么高,还是有许多部署这些技能的机会的。

就诊断来说,如果你弄错了一些东西,那结果是很糟的。但我们部署了一个系统,目前仍在一家医院运行。该系统用于筛选患者、阅读电子健康记录,判断谁的死亡风险更高,并推荐他们考虑接受临终关怀。但我们无法信任系统做出的决定。所以我们把它送给医生,让医生复查我们展示的病例,并做出最终决定。

实际上,我新加坡的一个朋友正在运用新加坡国立大学的一个系统,查看病人的电子健康记录,尝试估计病人将在医院待多久。有时医生会以为这是个简单的病例,三天内就会出院,但 AI 说不,须要 5 天。这就引发了进一步的会商。这就是新加坡正在发生的事情。医生说,「哦,也许我须要再仔细看看这个病人。也许我漏掉了 AI 发现的东西」所以,这些东西实际上正在部署。但根据系统的能力,我们通常可以设计安全措施,确保以负责任的方式部署 AI。

在医疗保健运营中,如果你运用 AI 来安排核磁共振机的试用,即使你犯了错误,导致核磁共振机运用效率降低,这虽然很糟,但也许并不像弄错关键诊断那么糟糕。所以实际上,AI 在医疗保健畛域有许多部署机会,我以为几乎所有行业都是如此。

主持人:那么,我们接下来会商基础模型。这个课题的灵感来自我在科技网站上读到的一篇文章。如果说 2023 年是 OpenAI 高光之年。那么,在基础模型的领导者中,2024 年的主角将是哪个公司?苹果会推出 Ajax 大模型吗?我们对 Gemini 的关注会多于 GPT 吗?

吴恩达:事实证明,每当出现一波技能创新时,媒体都喜欢谈论技能层面。所以媒体会关注 OpenAI、谷歌、AWS、微软、Meta、英伟达、AMD 等公司。这没什么课题。但事实证明,要让技能基础设施层成功,我们还须要成就另一个畛域,那就是建立在这些技能提供商之上的应用层。坦白说,我们须要基于这些工具构建的应用来产生更多收入,以便它们能够为这些工具构建者买单。一篇很好的文章显示了 GPU 的资本投资。作为一个群体,我们须要创造一些应用,来填补这数百亿美元的空白,这是我们现在已经进行的资本投资,特别是在 GPU 方面。

所以,我不知道媒体会做什么,他们有自己的炒作周期。但我以为大量的实际处事,不仅仅存在于基础模型那里,而是在医疗保健、金融服务、教育、电子商务等所有这些畛域,去识别和执行项目。

给TA打赏
共{{data.count}}人
人已打赏
应用

高通CEO安蒙:生成式AI将厘革用户与终端交互的办法

2024-1-22 14:24:00

应用

裁人靠随机?google资深工程师爆大料,职工准备抗议示威

2024-1-22 14:31:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索