MH-MoE
微软让MoE长出多个头,大幅提升专家激活率
MH-MoE 能优化几乎所有专家,实现起来非常简单。混合专家(MoE)是个好方法,支持着现在一些非常优秀的大模型,比如谷歌家的 Gemini 1.5 以及备受关注的 Mixtral 8x7B。稀疏混合专家(SMoE)可在不显著增加训练和推理成本的前提下提升模型的能力。比如 Mixtral 8×7B 就是一个 SMoE 模型,其包含 8 个专家(共 7B 参数),而其表现却可以超过或比肩 LLaMA-2 70B 和 GPT-3.5。但是,它也有两个问题。一是专家激活率低 —— 也就是搞不好会出现下图这种情况:具体来说
5/14/2024 7:09:00 AM
机器之心
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
机器人
数据
谷歌
大模型
Midjourney
智能
模型
用户
学习
GPT
开源
微软
AI创作
图像
Meta
技术
论文
Stable Diffusion
马斯克
算法
生成式
蛋白质
芯片
Gemini
代码
神经网络
计算
腾讯
研究
Sora
AI设计
3D
开发者
英伟达
GPU
AI for Science
机器学习
场景
预测
华为
伟达
Transformer
Anthropic
模态
深度学习
百度
驾驶
AI视频
文本
苹果
搜索
神器推荐
算力
LLaMA
Copilot
安全
科技
xAI
视频生成
应用
字节跳动
干货合集
人形机器人
2024
具身智能
特斯拉
视觉
亚马逊
语音
大语言模型
AGI
Claude
AI应用场景