吴恩达:四个步骤,让大模型变得更好

本周,生成式 AI 的竞争达到了新的高潮。前有 OpenAI 抢先发布 GPT-4o,后有谷歌在 I/O 开发者大会上发布一系列生成式人工智能模型与产品。自 2022 年 11 月 OpenAI 推出 ChatGPT,至今已有 18 个月。学界、业界为了提升生成式 AI 模型的能力,做出了诸多努力。今天,著名人工智能学者、斯坦福大学教授吴恩达高度总结了提升生成式 AI 模型能力的方式,主要包括:1)提升模型的推理能力;2)扩展上下文窗口,并撰写一篇博客阐述了一套通用且高效的 prompt 策略。我们对博客内容进行了

本周,生成式 AI 的竞争达到了新的高潮。

前有 OpenAI 抢先发布 GPT-4o,后有谷歌在 I/O 开发者大会上发布一系列生成式人工智能模型与产品。

自 2022 年 11 月 OpenAI 推出 ChatGPT,至今已有 18 个月。学界、业界为了提升生成式 AI 模型的能力,做出了诸多努力。

今天,著名人工智能学者、斯坦福大学教授吴恩达高度总结了提升生成式 AI 模型能力的方式,主要包括:1)提升模型的推理能力;2)扩展上下文窗口,并撰写一篇博客阐述了一套通用且高效的 prompt 策略。

图片

我们对博客内容进行了不改变原意的编译、整理,以下是博客内容:

本周,谷歌宣布将 Gemini Pro 1.5 的输入上下文窗口扩大一倍,从 100 万 token 扩展到 200 万 token;OpenAI 发布了 GPT-4o,它的生成速度是 GPT-4 Turbo 的 2 倍,而且便宜 50%,原生支持输入、生成多模态 token。这是 18 个月以来的最新进展。

自 2022 年 11 月 ChatGPT 推出以来,随着 GPT-4、Gemini 1.5 Pro、Claude 3 Opus 和 Llama 3-70B 的发布等重要里程碑的到来,许多模型提供商通过两个重要方式提高了自己的能力:

提升模型的推理能力,使 LLM 能够思考复杂的概念并遵循复杂的指令; 

更长的输入上下文窗口。

GPT-4 和其他高级模型的推理能力使它们非常擅长解释带有详细说明的复杂 prompt。许多人习惯向 LLM 快速提出 1 - 2 句话的查询。相比之下,在构建应用程序时,我看到经验丰富的团队经常编写可能长达 1 - 2 页的 prompt(我的团队称其为「mega-prompt」),这些 prompt 提供复杂的指令来详细说明我们希望 LLM 如何执行一个任务。我仍然认为团队在编写详细指令方面做得不够好。有关中等长度 prompt 的示例,请查看 Claude 3 的系统 prompt,详细且为 Claude 应该如何执行任务提供了明确的指导。

图片

这是一种与我们通常在 LLM 网络用户界面中使用的非常不同的 prompt 方式。在这种方式中,我们可能会快速进行查询,如果响应不满意,则通过与聊天机器人反复对话来表述清楚我们想要什么。

此外,输入上下文窗口长度的增加为开发人员的工具箱添加了另一种技术。GPT-3 激发了关于小样本上下文学习的大量研究。例如,如果您使用 LLM 进行文本分类,您可能会提供一些(例如 1 - 5 个)文本片段及其类别标签的样本,以便它可以泛化到其他文本。

GPT-4o 接受 128000 个输入 token,Claude 3 Opus 200000 个 token,Gemini 1.5 Pro 100 万个 token(200 万个 token 目前仅适用于预览版)。然而,随着输入上下文窗口变得越来越长,人们发现 LLM 并不局限于少数样本。通过多样本(many-shot)学习,开发人员可以在 prompt 中给出数十个甚至数百个样本,这比少样本(few-shot)学习效果更好。

在构建复杂的工作流时,我看到开发人员通过如下过程获得了良好的结果:

编写快速、简单的 prompt,看看效果如何。

根据输出不足的地方,迭代地充实 prompt。这通常会导致更长、更详细的 prompt,甚至可能是「mega-prompt」。

如果这仍然不够,请考虑少样本或多样本学习(如果适用),或者不太频繁地进行微调。

如果仍然不能产生您需要的结果,请将任务分解为子任务并应用智能体工作流。

我希望这个过程能够帮助大家更轻松地构建应用程序。如果您有兴趣更深入地研究 prompt 策略,我推荐 Medprompt 论文,其中列出了一组复杂的 prompt 策略,可以带来非常好的结果。

图片

                               Medprompt 论文,链接:https://arxiv.org/pdf/2311.16452

参考链接:

https://twitter.com/AndrewYNg/status/1791134037178020308

https://www.deeplearning.ai/the-batch/issue-249/

相关资讯

AI 大牛吴恩达官宣加入亚马逊董事会

亚马逊今日对外宣布,吴恩达加入亚马逊董事会,该任命从 4 月 9 日起生效。亚马逊表示,人工智能 (AI),尤其是生成式人工智能,是这个时代最具变革性的创新之一。吴恩达博士是人工智能和教育领域的全球领导者,他曾在学术和私营部门工作,开发机器学习和深度学习算法,并支持公司开发和采用人工智能应用程序。吴博士撰写或合著了 200 多篇关于机器学习、机器人和其他相关领域的研究论文,为一系列新兴技术带来了深刻的见解。吴恩达的加入将使董事会深入了解人工智能带来的机遇和挑战、社会变革和商业潜力。亚马逊正面临微软和 OpenAI

吴恩达:AI智能体工作流今年将有巨大进展,可能超过下一代基础模型

下一步是智能体?随着 ChatGPT、GPT-4、Sora 的陆续问世,人工智能的发展趋势引起了广泛关注,特别是 Sora 让生成式 AI 模型在多模态方面取得显著进展。人们不禁会问:人工智能领域下一个突破方向将会是什么?今天,人工智能著名学者、斯坦福大学教授吴恩达指出:AI 智能体工作流将在今年推动人工智能取得巨大进步,甚至可能超过下一代基础模型。他呼吁所有从事人工智能工作的人都关注 AI 智能体工作流,并撰写一篇博客简单阐述了原因。我们对博客内容进行了不改变原意的编译、整理,以下是博客内容:当前,我们主要在零样

吴恩达:别光盯着GPT-5,用GPT-4做个智能体可能提前达到GPT-5的效果

智能体的潜力被低估了?AI 智能体是去年很火的一个话题,但是 AI 智能体到底有多大的潜力,很多人可能没有概念。最近,斯坦福大学教授吴恩达在演讲中提到,他们发现,基于 GPT-3.5 构建的智能体工作流在应用中表现比 GPT-4 要好。当然,基于 GPT-4 构建的智能体工作流效果更好。由此看来,AI 智能体工作流将在今年推动人工智能取得巨大进步,甚至可能超过下一代基础模型。这是一个值得所有人关注的趋势。这个关于智能体的演讲在社交媒体上引发了广泛关注。有人表示,这代表着 AI 发展中的范式转变,体现了从静态输出到动