Mistral开源8X22B大模型,OpenAI更新GPT-4 Turbo视觉,都在欺负谷歌

真有围剿 Google 的态势啊!在谷歌昨晚 Cloud Next 大会进行一系列重大发布时,你们都来抢热度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 开源 8X22B 的超大模型。谷歌内心:南村群童欺我老无力。第二大开源模型:Mixtral 8X22B今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技术细节,并推出了 Mixtral 8x7B – Instruct 聊天模型。该模型的性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.

真有围剿 Google 的态势啊!

在谷歌昨晚 Cloud Next 大会进行一系列重大发布时,你们都来抢热度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 开源 8X22B 的超大模型。

谷歌内心:南村群童欺我老无力。

图片

第二大开源模型:Mixtral 8X22B

今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技术细节,并推出了 Mixtral 8x7B – Instruct 聊天模型。该模型的性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。

短短 3 个月后,Mistral AI 开源了 Mistral 8X22B 模型,为开源社区带来了又一个性能强劲的大模型。

图片

有人已经查看了 Mistral 8X22B 模型的细节,模型文件大小约为 262 GB。

图片

由此,Mistral 8X22B 仅次于 xAI 此前推出的 Grok-1(参数量为 3140 亿),成为迄今为止第二大开源模型。

图片

还有人惊呼,MoE 圈子又来了个「大家伙」。MoE 即专家混合模型,此前 Grok-1 也为 MoE 模型。

图片

GPT-4 Turbo 视觉功能新升级

另一边,OpenAI 宣布 GPT-4 Turbo with Vision 现在可以通过 API 使用了,并且 Vision 功能也可以使用 JSON 模式和函数调用了。

图片

下面为 OpenAI 官网细节。

图片

虽然如此,各路网友对 OpenAI 的小修小补「并不感冒」。

图片

图片

参考链接:

https://platform.openai.com/docs/models/continuous-model-upgrades

相关资讯

1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

感谢Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。该公司今天发布的 Mixtral 8x22B 是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过

OpenAI官方下场修复GPT-4变懒,上新多个模型、还大降价

今天,OpenAI 一口气宣布了 5 个新模型,包括两个文本嵌入模型、升级的 GPT-4 Turbo 预览版和 GPT-3.5 Turbo、一个审核模型。不知大家是否还记得,去年年底 GPT-4 开始变「懒」的事实。比如在高峰时段使用 GPT-4 或 ChatGPT API 时,响应会变得非常缓慢且敷衍,有时它会拒绝回答用户提出的问题,甚至还会单方面中断对话。 这种情况对于码农来说,更是深有体会,有人抱怨道「让 ChatGPT 扩展一些代码,它竟然让我自己去写。」原本想借助 ChatGPT 帮助自己编写代码,现在好

面壁智能发布 Eurux-8x22B 开源大模型:代码性能超越 Llama3-70B

感谢面壁智能发布开源大模型 Eurux-8x22B,包括 Eurux-8x22B-NCA 与 Eurux-8x22B-KTO,主打推理能力。官方测试中,Eurux-8x22B 在 LeetCode(180 道 LeetCode 编程真题)与 TheoremQA (IT之家注:美国大学水准的 STEM 题目)测试上超越了 Llama3-70B,在 LeetCode 测试上超越闭源的 GPT-3.5-Turbo。▲ 官方测试结果据介绍,Eurux-8x22B 模型激活参数 39B,支持 64k 上下文,是由 Mixtr