GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

大言语模型(Large Language Models)的发展势头愈发猛烈,各大公司国际角逐的背后,也需要一同应对公平、安全以及隐私等方面的问题。

这个星期,数据挖掘顶会 ACM KDD 2023 在美国长滩开幕,在五天的主会议期间,大会专门给大模型准备了一整天。来自 Open AI、Meta、智谱 AI、Google DeepMind、Microsoft、Intel 等大言语模型领域走在前沿的公司及钻研学者进行了精彩的思想碰撞。

这也是为数不多的一次,是中国的大言语模型专家与国际巨头们同台竞技,深度交流。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

此次大模型开放日的 Keynote 演讲嘉宾包括:微软首席科学家 & 技术院士 Jaime Teevan,OpenAI ChatGPT 团队成员 Jason Wei,智谱 AI CEO 张鹏,google DeepMind 首席科学家 / 钻研主管 Denny Zhou,以及 Meta FAIR 钻研工程师 Vedanuj Goswami,他们就大模型赋能未来职责、言语模型推理才能、Llama 2、GLM-130B 和 ChatGLM、大模型范式与挑战等中心进行了分享。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

此次活动聚焦两大中心:大言语模型以及其在不同领域应用的最新钻研进展,以及如何建立值得信赖的大言语模型。让我们一起听听他们都说了什么。

OpenAI Jason Wei

大言语模型的复兴:范式和挑战

Jason Wei 是 OpenAI ChatGPT 研发团队成员之一。此前他在google大脑团队担任高级钻研科学家,期间致力于推广思维链提醒,共同领导了指令调优前期职责,并撰写关于大言语模型涌现的职责。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

Jason 的分享中心为《大言语模型的复兴:范式和挑战》。他首先概述了大言语模型的三个主要特征,分别是缩放法则、涌现才能和推理才能,并探讨了这些特征如何影响自己的 AI 钻研领域。

随后,Jason 介绍了他和其他人在 LLM 推理才能上所做的钻研职责。首先是思维链(Chain-of-Thought)。如果你用一个想法来提醒 LLM,它给出的回复质量就会飞跃。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

第二个想法是「自我一致性」(Self-Consistency):对多次生成进行采样调查,然后选择最常见的答案。「自我一致性」改善了言语模型中的思维链推理。

第三个想法是「从最少到最多的提醒」(Least-to-Most Prompting),这要求 LLM 将问题分解成不同的任务,并从易到难进行排序。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

智谱 AI 张鹏 

从 GLM-130B 到 ChatGLM

作为智谱 AI(Zhipu AI)的 CEO,张鹏带领团队成功开发了 1300 亿参数的双语(中英文)大言语模型 GLM-130B。自 2022 年 8 月起,该模型已开源,在准确性和鲁棒性方面可媲美 GPT-3 davinci。

2023 年 3 月 14 日,基于 GLM-130B,智谱 AI 正式发布了 ChatGLM,一款类 ChatGPT 的对话机器人产品。此外,其开源、紧凑的版本 ChatGLM-6B 与 ChatGLM2-6B 全球下载量超过 5,000,000 次,连续 28 天位居 Hugging Face Trending 榜首,并在 GitHub 上获得超过 4.4 万颗星标。

最近,智谱 AI 还把 ChatGLM 升级到 ChatGLM2,推出了多个参数尺寸,大幅提升了才能,基于 ChatGLM2-6B 的代码生成模型,智谱 AI 还更新了代码生成工具 CodeGeeX2。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

张鹏的分享中心是《从 GLM-130B 到 ChatGLM》。张鹏介绍了智谱 AI 自研的 GLM 框架,GLM 的预训练框架是一种自回归填空的方法,集成了 GPT 和 BERT 这两种预训练框架的优势,既能够实现单项注意力的计算,做序列的生成,也可以做到双向注意力的计算,做回归的模型。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

在 GLM 基础上,2022 年 8 月,智谱推出拥有 1300 亿参数的中英双语稠密模型 GLM-130B。得益于新的模型架构,GLM 在许多具有百万参数甚至更少训练步骤的基准测试中,能够在自然言语理解方面实现比 BERT 和 T5 更好的性能。训练一个 1000 亿规模的大型言语模型并非易事,智谱团队解决了许多工程问题和算法上的挑战,包括频繁且随机的硬件故障、训练稳定性等问题,相关细节都发表在 ICLR 2023 的论文中。

微软 Jaime Teevan

从文档到对话:LLM 如何塑造未来的职责

Jaime 是微软首席科学家和技术院士,负责公司核心产品中的驱动技术创新。她提倡人们应找到更聪明的方式来充分利用好时间,领导微软的未来职责倡议,探索 AI 和混合办公等如何改变人们完成事情的方式。此前她曾担任微软 CEO 萨提亚・纳德拉的技术顾问,并领导了微软钻研院的生产力团队。

此外,Jaime 是 ACM Fellow 以及 ACM SIGIR and SIGCHI Academies 的会员。她还曾荣获 TR35、BECA 和 Karen Sparck Jones 奖。她本科毕业于耶鲁大学,并获得了 MIT 人工智能博士学位。她也是华盛顿大学的客座教授。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

此次她的分享中心为《从文档到对话:LLM 如何塑造未来的职责》。可以想象的是,伴随 LLM 的崛起,未来的职责方式正在发生迅速变化,知识越来越多地蕴含在对话而非文档中。

在演讲中,Jaime 探讨了 LLM 如何通过生成符合人们语境和意图的自然言语建议和反馈,以提高人们的职责效率和创造力。要有效地做到这一点,LLM 需要能够利用各种来源的相关内容作为其响应的基础。人们还需要进修新的对话模式,以充分发挥大模型的价值,因为在人际交往中行之有效的模式对 LLM 来说可能并不是最佳的。

此外,Jaime 讨论了提醒工程在生产环境中的重要性,并强调能够识别和推荐对话模板的价值。通过对这些钻研课题的深入钻研,推荐系统界有机会创造一个全新的、更美好的职责未来。

google DeepMind Denny Zhou

教言语模型学推理

Denny Zhou 是 Google DeepMind 的首席科学家 / 钻研主管,他是推理团队的创立者和现任负责人。主要钻研兴趣在于构建和教导大言语模型实现类人的推理才能。他领导的团队已经开发了思维链提醒、自洽性解码、最少到最多提醒、指令调优(FLAN2)、LLM 自我调试等大言语模型的各种涌现属性。Denny Zhou 曾获得 2022 年google钻研技术影响力奖(Google Research Tech Impact Award)。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

他的分享中心为《教言语模型学推理》。过去数十年,机器进修社区已经开发了大量用来增强进修效率的数据驱动方法,比如半监督进修、元进修、主动进修、迁移进修等。然而,所有这些方法已被证明对于现实世界的 NLP 任务并不是特别有效,由此暴露了机器进修的一大缺陷 —— 缺乏推理。人们往往可以从很少的示例中进修,这就归功于推理才能而不是依赖数据统计。

因此在此次分享中,Denny Zhou 探讨了google DeepMind 引领的 LLM 推理职责,他们开发的方法极大缩小了人类智能与机器进修之间的差距,在仅要求很少的注释示例且不需要训练的情况下也能实现新的 SOTA。这些职责,google CEO 桑达尔・皮查伊在 2021 年的 Google I/O 大会上进行过重点展示。

Meta FAIR  Vedanuj Goswami

Llama 2:开放基础和微调聊天模型

上个月,最强的开源大模型 Llama 2 惊艳发布,一夜之间改变了大模型竞争格局。发布之后, Llama 2 模型迅速成为了社区最广泛使用和下载的开源模型之一。Vedanuj 曾经参与训练 Llama 2 系列模型,目前在 Meta AI 的 LLM 钻研团队担任钻研工程师,重点钻研 LLM 预训练和缩放技巧。

Vedanuj 还曾是「No Language Left Behind」(不落下任何言语)和「Universal Speech Translation for Unwritten Languages」(非书面语的通用语音翻译)等翻译项目的钻研负责人,并在 FAIR 从事过多模态钻研,领导 FLAVA 和 MMF 等著名项目。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

这一次,他的分享中心为《Llama 2:开放基础和微调聊天模型》。7 月 18 日刚刚发布的 Llama 2 模型系列包含 70 亿、130 亿和 700 亿三种参数变体,因为开源且可以直接商用化,吸引了整个业界的关注。

在预训练层面,Llama 2 模型系列以 Llama 1 论文中描述的预训练方法为基础,使用了优化的自回归 transformer,并做了一些改变以提升性能。相比于 Llama 1,Llama 2 的训练数据多了 40%,上下文长度也翻倍,并采用了分组查询注意力机制。具体来说,Llama 2 预训练模型是在 2 万亿的 token 上训练的,精调 Chat 模型是在 100 万人类标记数据上训练的。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

在训练硬件方面,Meta 在其钻研超级集群(Research Super Cluster, RSC)以及内部生产集群上对模型进行了预训练。两个集群均使用了 NVIDIA A100。在 Meta 的评估中,多项测评结果显示,Llama 2 在包括推理、编码、精通性和知识测试等许多外部基准测试中都优于其他开源言语模型。

当然,对于今天的大模型来说,「安全」是一个重要性不亚于「性能」的指标。在 Llama 2 的研发过程中,Meta 使用了三个常用基准评估其安全性:

真实性,指言语模型是否会产生错误信息,采用 TruthfulQA 基准;

毒性,指言语模型是否会产生「有毒」、粗鲁、有害的内容,采用 ToxiGen 基准;

偏见,指言语模型是否会产生存在偏见的内容,采用 BOLD 基准。

如今,大模型技术以「天」为单位飞速发展。一觉醒来,人们可能就会看到最新技术成果带来的巨变。

面对这样的时代,学术界、工业界和社会各自面临着怎样的机遇?另一方面,大模型在生产、生活层面的深入,又带给这个时代哪些挑战?这些都是值得深思的问题。

在活动最后的圆桌讨论中,来自 Google DeepMind、微软、英特尔、密歇根大学的多位钻研者共同探讨了大模型时代面临的范式转变。

GPT-4、ChatGLM2、Llama2、PaLM2在KDD LLM Day上一起开了个会

在各家厂商激烈角逐大模型的半年多时间里,我们很少有机会看到 GPT-4、Llama2、ChatGLM、PaLM2 这些模型的幕后团队能够聚在一起进行讨论。特别是在这次大模型开放日中,ChatGLM 成为唯一来自国内的代表,向世界展现了中国的大模型技术实力。推出 ChatGLM 的智谱 AI,还是本次 KDD 最高级别的钻石赞助商,可以看到国内厂商在学术生态领域的活跃与贡献。

今天,我们对大模型的才能还在不断探索过程中,学术界也需要有更多的「大模型开放日」,共同推动各界力量的交流与合作,以突破人工智能的边界。

给TA打赏
共{{data.count}}人
人已打赏
AI

支援全栈编程语言、随取随用、一键布局,google推出浏览器AI开发环境IDX

2023-8-10 14:45:00

AI

ChatGPT写的论文有多少宣布了?搜完google学术以后我慌了

2023-8-11 14:36:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索