1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

感谢Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,公有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断创立传奇,而且在得到微软的投资之后更是进入发展快车道。该公司今天发布的 Mixtral 8x22B 是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过

感谢Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,公有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断创立传奇,而且在得到微软的投资之后更是进入发展快车道。

该公司今天发布的 Mixtral 8x22B 是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过 HuggingFace 和 Perplexity AI Labs 平台进行下载。IT之家附上相关截图如下:

1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

Mixtral 8x22B 公有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,不过为单一任务可以挪用部分模型(440 亿参数),因此使用起来更加灵活。

给TA打赏
共{{data.count}}人
人已打赏
AI

Meta 宣布新一代 AI 训练与推理芯片,功能为初代芯片三倍

2024-4-10 23:30:30

AI

英伟达 H100 AI GPU 短缺减缓,交货时间从 3-4 个月降至 2-3 个月

2024-4-11 9:32:44

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索