英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

英伟达联合法国初创公司 Mistral AI,今天发布了全新的 Mistral-NeMo AI 大语言模型,拥有 120 亿个参数,上下文窗口(AI 模型一次能够处理的最大 Token 数量)为 12.8 万个 token。VentureBeat 与 Midjourney 合作制作Mistral-NeMo AI 大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。由于 Mistral NeMo 依赖于标准架构,因此企业在使用过程中可直接替换任何使用 Mistral 7B 的系统。英伟达

英伟达联合法国初创公司 Mistral AI,今天发布了全新的 Mistral-NeMo AI 大语言模型,拥有 120 亿个参数,上下文窗口(AI 模型一次能够处理的最大 Token 数量)为 12.8 万个 token。

英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

VentureBeat 与 Midjourney 合作制作

Mistral-NeMo AI 大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。

由于 Mistral NeMo 依赖于标准架构,因此企业在使用过程中可直接替换任何使用 Mistral 7B 的系统。

英伟达是 GPU 制造和人工智能硬件领域的巨头,而 Mistral AI 则是欧洲人工智能领域的后起之秀,双方的合作标志着人工智能行业的企业解决方案发生了重大转变。

行业分析师认为,这一版本可能会极大地颠覆人工智能软件市场。Mistral-NeMo 的推出代表着企业人工智能部署的潜在转变。

通过提供一种可在本地硬件上高效运行的模式,英伟达和 Mistral AI 正在解决阻碍许多企业广泛采用人工智能的问题,如数据隐私、延迟以及与基于云的解决方案相关的高成本。

此举有可能创造公平的竞争环境,让资源有限的小型企业也能利用人工智能功能,而这些功能以前只有拥有大量 IT 预算的大型企业才能使用。

然而,这一发展的真正影响将取决于该模型在实际应用中的表现,以及围绕该模型开发的工具和支持生态系统。

该模型以 Apache 2.0 许可发布,允许商业使用,这将加速其在企业环境中的应用。AI在线附上官方公布的该 AI 模型性能参数如下:

英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

表 1:Mistral NeMo 基本模型与 Gemma 2 9B 和 Llama 3 8B 的性能比较。

英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

图 1:Mistral NeMo 在多语言基准测试中的表现。

英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

图 2:Tekken 压缩率

英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

Mistral NeMo 指令调整模型精度。使用 GPT4o 根据官方参考文献进行的评估。

参考

Mistral NeMo

Nvidia and Mistral’s new model ‘Mistral-NeMo’ brings enterprise-grade AI to desktop computers

相关资讯

小模型卷起来了:Mistral联合英伟达开源12B小模型,128k上下文

小模型,正在成为 AI 巨头的新战场。今天凌晨,OpenAI 突然发布了 GPT-4o 的迷你版本 ——GPT-4o mini。这个模型替代了原来的 GPT-3.5,作为免费模型在 ChatGPT 上提供。其 API 价格也非常美丽,每百万输入 token 仅为 15 美分,每百万输出 token 60 美分, 比之前的 SOTA 模型便宜一个数量级,比 OpenAI 此前最便宜的 GPT-3.5 Turbo 还要便宜 60% 以上。OpenAI CEO 山姆・奥特曼对此的形容是:通往智能的成本已经「too che

英伟达 Mistral AI 联袂出击!120 亿小模型王者强势登场,碾压 Llama 3 单张 4090 可跑

GPT-4o mini 头把交椅还未坐热,Mistral AI 联手英伟达发布 12B 参数小模型 Mistral Nemo,性能赶超 Gemma 2 9B 和 Llama 3 8B。小模型,成为本周的 AI 爆点。先是 HuggingFace 推出了小模型 SmoLLM;OpenAI 直接杀入小模型战场,发布了 GPT-4o mini。GPT-4o mini 发布同天,欧洲最强 AI 初创公司 Mistral 立马发布旗下最新最强小模型 ——Mistral NeMo。Mistral NeMo 由 Mistral

英伟达发布 80 亿参数新 AI 模型:精度、效率高,可在 RTX 工作站上部署

英伟达于 8 月 21 日发布博文,发布了 Mistral-NeMo-Minitron 8B 小语言 AI 模型,具备精度高、计算效率高等优点,可在 GPU 加速的数据中心、云和工作站上运行模型。英伟达携手 Mistral AI 上月发布开源 Mistral NeMo 12B 模型,在此基础上英伟达再次推出更小的 Mistral-NeMo-Minitron 8B 模型,共 80 亿个参数,可以在搭载英伟达 RTX 显卡的工作站上运行。英伟达表示通过宽度剪枝(width-pruning)Mistral NeMo 12