-
腾讯推出 Hunyuan-Large 大模型:389B 总参数,业界已开源基于 Transformer 的最大 MoE 模型
腾讯今日宣布推出 Hunyuan-Large 大模型,官方表示这是目前业界已经开源的基于 Transformer 的最大 MoE 模型,拥有 3890 亿总参数(389B)和 520 亿激活参数(52B)。 腾讯今日在 Hugging Face 开源了 Hunyuan-A52B-Pretrain 、 Hunyuan-A52B-Instruct 和 Hunyuan-A52B-Instruct-FP8…- 4
- 0
-
斯坦福大模型评测榜 Claude 3 排名第一,阿里 Qwen2、零一万物 Yi Large 国产模型进入前十
斯坦福大学前提模型研究中心(CRFM)6 月 11 日发布了大规模多任务说话理解能力评价(Massive Multitask Language Understanding on HELM)排行榜,其中综合排名前十的大说话模型中有两款来自中国厂商,分别是阿里巴巴的 Qwen2 Instruct(72B)和零一万物的 Yi Large(Preview)。据悉大规模多任务说话理解能力评价(MMLU on…- 16
- 0
-
大佬出走后首个发布,Stability 官宣代码模型 Stable Code Instruct 3B
【新智元导读】Stability AI 在大佬出走后似乎并未受到影响,最近又官宣了新的代码模型 Stable Code Instruct 3B,在之前的基础上更进一步,干掉了所有同级竞品,甚至能和 7B、15B 的模型掰手腕。大佬出走后,第一个模型来了!就在今天,Stability AI 官宣了新的代码模型 Stable Code Instruct 3B。要说 Stability 也是真的很神奇,…- 8
- 0
-
开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有
「太狂野了」。这是迄今为止最强大的开源大语言模型,超越了 Llama 2、Mistral 和马斯克刚刚开源的 Grok-1。本周三,大数据人工智能公司 Databricks 开源了通用大模型 DBRX,这是一款拥有 1320 亿参数的混合大师模型(MoE)。DBRX 的基础(DBRX Base)和微调(DBRX Instruct)版本已经在 GitHub 和 Hugging Face 上发布,可用…- 14
- 0
-
Stable Code Instruct 3B AI 模型亮相:可精准翻译转换编程谈话
Stability AI 公司近日面向程序员,推出 Stable Code Instruct 3B 大谈话模型,其亮点在于可以从一种编程谈话翻译转换成另一种编程谈话。IT之家附上 Stable Code Instruct 3B 大谈话模型的性能如下:该模型可以根据代码上下文情境主动生成代码。基于相干代码情境,主动拔出、补全相干代码。Stable Code Instruct 3B 能够生成与数据库交…- 4
- 0
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!