AI在线 AI在线

最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB

作者:故渊
2024-08-29 03:29
Zyphra 于 8 月 27 日发布博文,宣布推出 Zamba2-mini 1.2B 模型,共有 12 亿参数,声称是端侧 SOTA 小语言模型,在 4bit 量化下内存占用低于 700MB。AI在线注:SOTA 全称为 state-of-the-art,并不是特指某个具体的模型,而是指在该项研究任务中,目前最好 / 最先进的模型。Zamba2-mini 1.2B 虽然尺寸不大,但媲美包括谷歌 Gemma-2B、Huggingface 的 SmolLM-1.7B、苹果的 OpenELM-1.1B 和微软的 Phi

Zyphra 于 8 月 27 日发布博文,宣布推出 Zamba2-mini 1.2B 模型,共有 12 亿参数,声称是端侧 SOTA 小语言模型,在 4bit 量化下内存占用低于 700MB。

AI在线注:SOTA 全称为 state-of-the-art,并不是特指某个具体的模型,而是指在该项研究任务中,目前最好 / 最先进的模型。

最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB

Zamba2-mini 1.2B 虽然尺寸不大,但媲美包括谷歌 Gemma-2B、Huggingface 的 SmolLM-1.7B、苹果的 OpenELM-1.1B 和微软的 Phi-1.5 等更大模型。

在推理任务中,Zamba2-mini 的卓越性能尤为显著,与 Phi3-3.8B 等模型相比,Zamba2-mini 的首次令牌时间(从输入到输出第一个 token 的延迟)是此前的二分之一,内存占用减少了 27%。

Zamba2-mini 1.2B 主要通过高度优化的架构实现,融合了不同神经网络设计的优势,既能保持大型密集变压器的高质量输出,又能以更小模型的计算和内存效率运行。

最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB

与前代 Zamba1 相比,Zamba2-mini 的关键进步之一是集成了两个共享注意力层(attention layers)。

这种双层方法增强了模型在不同深度保持信息的能力,从而提高了整体性能。在共享注意力层中加入旋转位置嵌入也略微提高了性能,这表明 Zyphra 致力于在模型设计中进行渐进而有影响力的改进。

Zamba2-mini 是在一个包含三万亿个 token 的海量数据集上进行预训练的,该数据集来自 Zyda 和其他公开来源。

最强端侧开源 AI 模型 Zamba2-mini 登场:12 亿参数,4bit 量化下内存占用小于 700MB

这个庞大的数据集经过了严格的过滤和重复处理,以确保获得最高质量的训练数据,并在退火(annealing)阶段对其进一步完善,其中包括在 1000 亿个质量极高的 tokens 上进行训练。

Zyphra 已承诺使 Zamba2-mini 成为 Apache 2.0 许可下的开源模型。

AI在线附上参考地址

Zyphra Unveils Zamba2-mini: A State-of-the-Art Small Language Model Redefining On-Device AI with Unmatched Efficiency and Performance

Model Card for Zamba2-1.2B

Zamba2-mini (1.2B)

相关标签:

相关资讯

OpenAI推全新语音转录模型gpt-4o-transcribe,语音转文字准确率飙升

继此前在语音 AI 领域引发一些关注后,OpenAI并未停下在该领域探索的脚步,现在这家ChatGPT的创造者再次发力,推出了三款全新的自主研发语音模型,分别为:gpt-4o-transcribe, gpt-4o-mini-transcribe and gpt-4o-mini-tts。 其中最受瞩目的当属gpt-4o-transcribe。 目前,这些新模型已经率先通过应用程序接口(API)向第三方开发者开放,开发者们可以利用它们打造更智能的应用程序。
3/21/2025 9:01:00 AM
AI在线

融合 ChatGPT+DALL・E 3,贾佳亚团队新作开源畅玩:识图推理生图一站解决

在开源社区中把 GPT-4 Dall・E 3 能⼒整合起来的模型该有多强?香港中文大学终身教授贾佳亚团队提出多模态模型 Mini-Gemini:更高清图像的精确理解、更高质量的训练数据、更强的图像解析推理能力,还能结合图像推理和生成,堪称王炸。Mini-Gemini 还提供了 2B 小杯到 34B 的超大杯,最强模型在多个指标上相比谷歌的 Gemini Pro 甚至 GPT-4V 都不遑多让。目前,Mini-Gemini 从代码、模型到数据已全部开源,登上了 PaperWithCode 热榜。Mini-Gemini
4/15/2024 4:07:17 PM
清源

阿尔特曼深夜发动价格战:OpenAI GPT-4o mini 全新小模型登场,GPT-3.5 退役

感谢AI在线网友 刺客 的线索投递!OpenAI,也开始进军小模型了。就在今天深夜,GPT-3.5 退场,全新发布的 GPT-4o mini,更小、性能更强,更重要的是 —— 更便宜!▲ GPT-3.5,再见!每百万个输入 token 15 美分,每百万个输出 token 60 美分,MMLU 得分 82%,性能超快。CEO Sam Altman 感慨道:通往智能的成本,竟是如此低廉。是的,如火如荼的大模型价格战,OpenAI 也入场了。Altman 回顾说:就在 2022 年,世界上最好的模型是还是 text-d
7/19/2024 10:36:47 AM
汪淼