发力了,Mistral对标ChatGPT全面升级le Chat,还祭出超大杯多模态模型
一觉醒来,Mistral AI 又发力了。 就在今天,Mistral AI 多模态家族迎来了第二位成员:一个名为 Pixtral Large 的超大杯基础模型。 这是一个基于 Mistral Large 2 构建、124B 开放权重的多模态模型,具备顶尖的图像理解能力 —— 能够看懂文档、图表和自然图像,同时保持 Mistral Large 2 领先的纯文本理解能力。- 971
- 0
Mistral首个多模态模型Pixtral 12B来了!还是直接放出24GB磁力链接
训练完就直接上模型。我们都知道,Mistral 团队向来「人狠话不多」。昨天下午,他们又又又丢出了一个不带任何注解的磁力链接。解析一下这个链接,可以看到大小共 23.64 GB,其中包含 4 个文件,其中最大的文件是一个封装的多模态大模型。动作快的非官方 Mistral 社区已经将该模型上传到了 Hugging Face。磁力链接:magnet:?xt=urn:btih:7278e625de2b1…- 10
- 0
精准狙击Llama 3.1?Mistral AI开源Large 2,123B媲美Llama 405B
AI 竞赛正以前所未有的速度加速,继 Meta 昨天推出其新的开源 Llama 3.1 模型之后,法国 AI 初创公司 Mistral AI 也加入了竞争。刚刚,Mistral AI 宣布其旗舰开源模型的下一代产品:Mistral Large 2,该模型拥有 1230 亿个参数,在代码生成、数学、推理等方面与 OpenAI 和 Meta 的最新尖端模型不相上下。紧随 Llama 3.1 405B …- 8
- 0
小模型卷起来了:Mistral联合英伟达开源12B小模型,128k上下文
小模型,正在成为 AI 巨头的新战场。今天凌晨,OpenAI 突然发布了 GPT-4o 的迷你版本 ——GPT-4o mini。这个模型替代了原来的 GPT-3.5,作为免费模型在 ChatGPT 上提供。其 API 价格也非常美丽,每百万输入 token 仅为 15 美分,每百万输出 token 60 美分, 比之前的 SOTA 模型便宜一个数量级,比 OpenAI 此前最便宜的 GPT-3.5…- 9
- 0
Mistral AI两连发:7B数学推理专用、Mamba2架构代码大模型
网友很好奇,Mathstral能不能搞定「9.11和9.9谁大」这一问题。昨天,AI圈竟然被「9.11和9.9谁大」这样简单的问题攻陷了,包括OpenAI GPT-4o、Google Gemini等在内的大语言模型都翻了车。这让我们看到,大语言模型在处理一些数字问题时并不能像人类那样理解并给出正确的答案。对于数字以及复杂的数学问题,专用模型更术业有专攻。今天,法国大模型独角兽 Mistral AI…- 25
- 0
速度秒掉GPT-4o、22B击败Llama 3 70B,Mistral AI开放首个代码模型
开放但禁止商用用途。对标 OpenAI 的法国 AI 独角兽 Mistral AI 有了新动作:首个代码大模型 Codestral 诞生了。作为一个专为代码生成任务设计的开放式生成 AI 模型,Codestral 通过共享指令和补全 API 端点帮助开发人员编辑并与代码交互。Codestral 通晓代码和英语,因而可为软件开发人员设计高级 AI 应用。Codestral 的参数规模为 22B,遵循…- 8
- 0
32K上下文,Mistral 7B v0.2 基模型突然开源了
刚刚,Mistral AI 的模型又革新了。此次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。PPT 一翻页,全场都举起了手机拍照:此次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的「Mistral Tiny」系列。此次革新主要包括三个方面:将…- 4
- 0
Mixtral 8x7B论文终于来了:架构细节、参数量首次曝光
Mixtral 8x7B 在大多数基准尝试中都优于 Llama 2 70B 和 GPT-3.5。前段时间,那个爆火整个开源社区的 Mixtral 8x7B MoE 模型论文放出了。此前,由于 OpenAI 团队一直对 GPT-4 的参数量和训练细节守口如瓶。Mistral 8x7B 的放出,无疑给广大开发者提供了一种「非常接近 GPT-4」的开源选项。要知道,很早之前就有人爆料,OpenAI 也是…- 15
- 0
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理
感兴趣的小伙伴,可以跟着操作过程试一试。前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。我们都知道,OpenAI 团队一直对 GPT-4 的参数量和训练细节守口如瓶。Mistral 8x7B 的放出,无疑给广大开发者提供了一种「非常接近 GPT-4」的开源选项。在基准尝试中,Mist…- 20
- 0
一条磁力链接席卷AI圈,87GB种子直接开源8x7B MoE模型
「高端」的开源,往往采用最朴素的颁布方式。昨天,Mistral AI 在 X 平台甩出一条磁力链接,宣布了新的开源动作。没有长篇官方博客,没有刻意加速的 Demo,这家公司算是当下大模型范畴的「一股清流」。打开一看,发现是接近 87 GB 的种子:参数配置什么样?很多人放弃了周末,第一时间下载运行起来。看上去,Mistral 8x7B 使用了与 GPT-4 非常相似的架构,但是「缩小版」: 8 个…- 25
- 0
Mistral AI
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!