Mixtral
1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载
感谢Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。Mistral AI 公司自成立以来一直备受外界关注,“6 人团队,7 页 PPT,8 亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。该公司今天发布的 Mixtral 8x22B 是个开源模型,官方目前放出了 Torrent 种子链接,文件大小为 281GB。用户可以通过磁性链接直接下载,或者通过
4/11/2024 6:06:10 AM
故渊
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
机器人
谷歌
大模型
Midjourney
智能
模型
用户
学习
GPT
开源
微软
AI创作
图像
Meta
技术
论文
Stable Diffusion
马斯克
算法
生成式
蛋白质
芯片
Gemini
代码
神经网络
计算
腾讯
研究
Sora
AI设计
3D
开发者
英伟达
GPU
AI for Science
机器学习
场景
预测
华为
伟达
Transformer
Anthropic
模态
深度学习
百度
驾驶
AI视频
文本
苹果
搜索
神器推荐
算力
LLaMA
Copilot
安全
科技
xAI
视频生成
应用
字节跳动
干货合集
2024
人形机器人
具身智能
特斯拉
视觉
亚马逊
语音
大语言模型
Claude
AGI
AI应用场景