开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

刚刚,google杀入开源大模型。开源领域大模型,迎来了重磅新玩家。google推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。Gemma 官方页面::Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本。想应用的人可以通过 Kaggle、google的 Colab Notebook 或通过 Google Cloud 访问。当然,Gemma 也第一时间上线了 HuggingFace 和 HuggingChat,每个人都能试一下它的生成

刚刚,google杀入开源大模型。

开源领域大模型,迎来了重磅新玩家。

google推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

Gemma 官方页面:https://ai.google.dev/gemma/

本次发布包含两种权重规模的模型:Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本。想应用的人可以通过 Kaggle、google的 Colab Notebook 或通过 Google Cloud 访问。

当然,Gemma 也第一时间上线了 HuggingFace 和 HuggingChat,每个人都能试一下它的生成能力:

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

尽管体量较小,但google表示 Gemma 模型已经「在关键基准测试中明显超越了更大的模型」,对比的包括 Llama-2 7B 和 13B,以及风头正劲的 Mistral 7B。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

而且 Gemma「能够直接在开发人员的笔记本电脑或台式电脑上运行」。除了轻量级模型之外,google还推出了鼓励协作的工具以及负责任地应用这些模型的指南。

Keras 作者 François Chollet 对此直接表示:最强开源大模型的位置现在易主了。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

在 HuggingFace 的 LLM leaderboard 上,Gemma 的 2B 和 7B 模型已经双双登顶。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

新的 Responsible Generative AI Toolkit 为应用 Gemma 创建更安全的 AI 应用程序提供指导和必备工具。google还通过原生 Keras 3.0 兼容所有主流框架(JAX、PyTorch 和 TensorFlow),为 Gemma 提供推理和监视微调(SFT)的工具链。

在各家大厂和人工智能研究机构探索千亿级多模态大模型的同时,很多创业公司也正在致力于构建体量在数十亿级别的语言模型。而 Meta 去年推出的 Llama 系列震动了行业,并引发了人们对于生成式 AI 开源和闭源路线的讨论。

google表示,Gemma 采用了与构建 Gemini 模型相同的研究和技术。不过,Gemma 直接打入开源生态系统的出场方式,与 Gemini 截然不同。google也并未遵守在去年定下的「不再开放核心技术」的策略。

虽然开发者可以在 Gemini 的基础上从事开发,但要么通过 API,要么在google的 Vertex AI 平台上从事开发,被认为是一种封闭的模式。与同为闭源路线的 OpenAI 相比,未见优势。

但借助此次 Gemma 的开源,google或许能够吸引更多的人应用自己的 AI 模型,而不是直接投奔 Meta、Mistral 这样的竞争对手。

google这次没有预告的开源,或许是想抢在 Meta 的 Llama 3 之前一天,毕竟此前有消息称 Llama 系列本周就要上新(让我们期待第一时间的评测对比)。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

虽然才发布几个小时,但 X 平台上已经有不少用户晒出了应用体验。有位用户表示,Gemma -7B 速度很快,输入也很稳定,好过 Llama-2 13B。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

在开源模型的同时,google还公布了有关 Gemma 的性能、数据集组成和建模方法的详细信息的技术报告。在技术报告中,其他研究者发现了一些亮点,比如 Gemma 支持的词汇表大小达到了 256K,这意味着它对英语之外的其他语言能够更好、更快地提供支持。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

以下是技术报告的细节。

Gemma 技术细节

总体来说,Gemma 是一个轻量级的 SOTA 开放模型系列,在语言理解、推理和安全方面表现出了强劲的性能。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

技术报告链接:https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf

google发布了两个版本的 Gemma 模型,分别是 20 亿参数和 70 亿参数,并提供了预训练以及针对对话、指令遵循、有用性和安全性微调的 checkpoint。其中 70 亿参数的模型用于 GPU 和 TPU 上的高效部署和开发,20 亿参数的模型用于 CPU 和端侧应用程序。不同的尺寸满足不同的计算限制、应用程序和开发人员要求。

Gemma 在 18 个基于文本的任务中的 11 个上优于相似参数规模的开放模型,例如问答、常识推理、数学和科学、编码等任务。

下图 1 为 Gemma(7B)与 LLaMA 2(7B)、LLaMA 2(13B)和 Mistral(7B)在问答、推理、数学和科学、编码等任务上的性能比较。可以看到,Gemma(7B)表现出了优势(除了在问答任务上弱于 LLaMA 2(13B))。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

接下来看 Gemma 的模型架构、训练基础设施、预训练和微调方法。

模型架构

Gemma 模型架构基于 Transformer 解码器,表 1 总结了该架构的核心参数。模型训练的上下文长度为 8192 个 token。

此外,google还在原始 transformer 论文的基础上从事了改进,改进的部分包括:

多查询注意力:7B 模型应用多头注意力,而 2B 检查点应用多查询注意力;

RoPE 嵌入:Gemma 在每一层中应用旋转位置嵌入,而不是应用绝对位置嵌入;此外,Gemma 还在输入和输入之间共享嵌入,以减少模型大小;

GeGLU 激活:标准 ReLU 非线性被 GeGLU 激活函数取代;

Normalizer Location:Gemma 对每个 transformer 子层的输入和输入从事归一化,这与仅对其中一个或另一个从事归一化的标准做法有所不同,RMSNorm 作为归一化层。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

训练基础设施

google应用了自研 AI 芯片 TPUv5e 来训练 Gemma 模型:TPUv5e 部署在由 256 个芯片组成的 pod 中,配置成由 16 x 16 个芯片组成的二维环形。

对于 7B 模型,google在 16 个 pod(共计 4096 个 TPUv5e)上训练模型。他们通过 2 个 pod 对 2B 模型从事预训练,总计 512 TPUv5e。在一个 pod 中,google对 7B 模型应用 16 路模型分片和 16 路数据复制。对于 2B 模型,只需应用 256 路数据复制。优化器状态应用类似 ZeRO-3 的技术进一步分片。在 pod 之外,google应用了 Pathways 方法通过数据中心网络执行数据复制还原。

预训练

Gemma 2B 和 7B 分别在来自网络文档、数学和代码的 2T 和 6T 主要英语数据上从事训练。与 Gemini 不同的是,这些模型不是多模态的,也不是为了在多语言任务中获得最先进的性能而训练的。

为了兼容,google应用了 Gemini 的 SentencePiece tokenizer 子集(Kudo 和 Richardson,2018 年)。它可以分割数字,不删除多余的空白,并遵循(Chowdhery 等人,2022 年)和(Gemini 团队,2023 年)所应用的技术,对未知 token 从事字节级编码。词汇量为 256k 个 token。

指令调优

google通过在仅文本、仅英语合成和人类生成的 prompt 响应对的混合数据上从事监视微调(SFT),以及利用在仅英语标记的偏好数据和基于一系列高质量 prompt 的策略上训练的奖励模型从事人类反馈强化学习(RLHF),对 Gemma 2B 和 Gemma 7B 模型从事微调。

实验发现,监视微调和 RLHF 这两个阶段对于提高下游自动评价和模型输入的人类偏好评价性能都非常重要。

监视微调

google根据基于 LM 的并行评价结果来选择自己的混合数据,以从事监视微调。给定一组留出的(heldout) prompt, google从测试模型中生成响应,并从基线模型中生成相同 prompt 的响应,并要求规模更大的高性能模型来表达这两个响应之间的偏好。

google还构建不同的 prompt 集来突出特定的能力,例如指令遵循、真实性、创造性和安全性等。google应用了不同的自动化 LM「judges」,它们采用了多种技术,比如思维链提示(chain-of-thought prompting)、对齐人类偏好等。

格式化

指令调优模型应用特定的格式化器从事训练, 该格式化器在训练和推理时应用额外的信息来标注所有指令调优示例。这样做有以下两个目的,1)指示对话中的角色,比如用户角色;2)描述对话轮次,尤其是在多轮对话中。为了实现这两个目的,google在分词器(tokenizer)中保留了特殊的控制 token。

下表 3 为相关格式化控制 token,表 4 为对话示例。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

人类反馈强化学习(RLHF)

google应用 RLHF 对监视微调模型进一步微调,不仅从人类评分者那里收集了偏好对,还在 Bradley-Terry 模型下训练了奖励函数,这类似于 Gemini。该策略经过训练,应用一个具有针对初始调优模型的 Kullback–Leibler 正则化项的 REINFORCE 变体,对该奖励函数从事优化。

与监视微调(SFT)阶段一样,为了从事超参数调优,并额外减轻奖励黑客行为,google依赖高容量模型作为自动评价器,并计算与基线模型的比较结果。

评价

google通过人类偏好、自动基准和影象等指标,在广泛的领域对 Gemma 从事了全面的评价。

人类偏好评价

除了在经过微调的模型上运行标准学术基准之外,google对最终发布的候选模型从事了人类评价研究,以便与 Mistral v0.2 7B Instruct 模型从事比较。

与 Mistral v0.2 7B Instruct 相比,Gemma 7B IT 的正胜率为 51.7%,Gemma 2B IT 的胜率为 41.6%。在测试基本安全协议的约 400 条 prompt 中,Gemma 7B IT 的胜率为 58%,而 Gemma 2B IT 的胜率为 56.5%。表 5 中报告了相应的数字。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

自动基准评价

google还在一系列学术基准上将 Gemma 2B 和 7B 模型与几个外部开源 LLM 从事了比较,如表 6 所示:

在 MMLU 上,Gemma 7B 的表现优于相同或较小规模的所有开源模型,还优于几个较大的模型,包括 LLaMA2 13B。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

然而,基准作者对人类专家表现的评价结果是 89.8%, Gemini Ultra 是第一个超过这一阈值的模型,可以看到Gemma仍有很大的改进空间,以达到Gemini和人类水平的性能。

但 Gemma 模型在数学和编码基准测试中表现比较突出。在数学任务上,Gemma 模型在 GSM8K 和更难的 MATH 基准上的表现超过其他模型至少 10 分。同样,它们在 HumanEval 上的表现比其他开源模型至少高出 6 分。Gemma 在 MBPP 上的表现甚至超过了经过代码微调的 CodeLLaMA-7B 模型(CodeLLaMA 得分为 41.4%,而 Gemma 7B 得分为 44.4%)。

影象评价

google应用 Anil 等人采用的方法测试 Gemma 的影象能力,具体而言,他们从每个语料库中采样 10000 个文档,并应用前 50 个 token 作为模型的 prompt。在此过程中,google主要关注精准影象,如果模型生成的后续 50 个 token 与文本中的真实后续文本完全匹配,则将该文本分类为已影象。图 2 将评价结果与同等规模的 PaLM 和 PaLM 2 模型从事了比较,结果如下所示。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

隐衷数据

对大模型来说,隐衷数据被记住的可能性是一件非常值得关注的事情。为了使 Gemma 预训练模型安全可靠,google应用自动方法从训练集中过滤掉某些隐衷信息和其他敏感数据。

为了识别可能出现的隐衷数据,google应用 Google Cloud 数据丢失防护 (DLP) 工具。该工具根据隐衷数据的类别(例如姓名、电子邮件等)输入三个严重级别。google将最高严重性分类为「敏感(sensitive)」,其余两个分类为「隐衷(personal)」,然后测量有多少存储的输入包含敏感或个人数据。

如下图 3 所示,google没有观察到存储敏感数据的情况,但确实发现 Gemma 模型会记住一些上述分类为潜在「隐衷」的数据。值得注意的是,研究中应用的工具可能存在许多误报(因为其只匹配模式而不考虑上下文),这意味着实验结果可能高估了已识别的隐衷数据量。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

在影象数据量方面,如下图 4 所示,google观察到大约会多出 50% 的数据被记住,并且在数据集的每个不同子类别中几乎是一致的。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

最后,google还通过标准化 AI 安全基准评价了 Gemma 的安全性,结果如下表 8 所示。

开源大模型王座易主!googleGemma杀入场,笔记本可跑,可商用

参考链接:

https://www.theverge.com/2024/2/21/24078610/google-gemma-gemini-small-ai-model-open-source

给TA打赏
共{{data.count}}人
人已打赏
应用

爆火Sora背后的手艺,一文综述集中模型的最新发展方向

2024-2-22 10:53:00

应用

新视频、造话题遇冷,火爆一时的苹果“杀手”Ai Pin会be吗?

2024-2-22 16:34:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索