MoE-LLaVA 框架
将多模态大模型稀疏化,3B模型MoE-LLaVA媲美LLaVA-1.5-7B
对于大型视觉语言模型(LVLM)而言,扩展模型可以有效提高模型性能。然而,扩大参数规模会显著增加训练和推理成本,因为计算中每个 token 都会激活所有模型参数。基于此,来自北京大学、中山大学等机构的研究者联合提出了一种新颖的 LVLM 训练策略 ——MoE-Tuning。MoE-Tuning 可以构建参数数量惊人但计算成本恒定的稀疏模型,并有效解决通常与多模态学习和模型稀疏性相关的性能下降问题。该研究还提出了一种基于 MoE 的新型稀疏 LVLM 架构 ——MoE-LLaVA 框架。该框架独特地在部署过程中通过路
1/31/2024 3:01:00 PM
机器之心
- 1
资讯热榜
罗永浩 Jarvis 初创项目“J1 Assistant AI 助理”上线,利用语音与大模型互动
突破非视距条件依赖!大规模区域、低成本的UWB-LiDAR标定与单次定位框架
SK 海力士宣布参展 CES 2025,将展示 122TB 企业级固态硬盘等产品
类 Mac Mini 大小的个人 AI 超算:英伟达 Project Digits 发布,起价 3000 美元
斯坦福AI科研神器开源,一键成文GPT-4o mini加持!科研写作彻底解放双手
从DeepSeek-V3发布谈大模型的技术突破与未来机遇
别再将LLM当成数据库了
3 到 5 秒即可同声传译 40 余种语言,时空壶推出 W4 Pro 实时翻译耳机
标签云
AI
模型
人工智能
AIGC
OpenAI
AI绘画
ChatGPT
机器人
数据
生成
谷歌
训练
视频
智能
学习
Midjourney
GPT
大模型
用户
AI创作
图像
LLM
微软
开源
技术
Meta
论文
Stable Diffusion
生成式
算法
蛋白质
芯片
马斯克
计算
神经网络
AI设计
Gemini
Sora
研究
腾讯
课程
代码
开发者
场景
伟达
GPU
3D
模态
预测
Transformer
华为
文本
驾驶
英伟达
神器推荐
机器学习
AI视频
语言
干货合集
LLaMA
深度学习
2024
算力
搜索
苹果
科技
视频生成
AI应用场景
应用
百度
写作
特斯拉
机器
安全
具身智能
Copilot
AI for Science
语音
prompt
AGI