Chat-UniVi
训练130亿大模型仅3天,北大提出Chat-UniVi统一图片和视频理解
北京大学和中山大学等机构研究者提出了统一的视觉语言大模型 ——Chat-UniVi。通过构建图片和视频统一表征,该框架使得一个 LLM 能够在图片和视频的混合数据下训练,并同时完成图片和视频理解任务。更重要的是,该框架极大降低了视觉语言模型训练和推理的开销,使得在三天以内即可训练出具有 130 亿参数的通用视觉语言大模型。Chat-UniVi 模型在图片和视频的下游任务中都取得了卓越的性能。所有代码、数据集和模型权重均已开源。论文地址: 地址: 地址: 地址: 图 1 Chat-UniVi 在图片
11/29/2023 2:34:00 PM
机器之心
- 1
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
机器人
数据
谷歌
大模型
Midjourney
智能
模型
用户
学习
GPT
开源
微软
AI创作
图像
Meta
技术
论文
Stable Diffusion
马斯克
算法
生成式
蛋白质
芯片
Gemini
代码
神经网络
计算
腾讯
研究
Sora
AI设计
3D
开发者
GPU
AI for Science
英伟达
机器学习
场景
预测
华为
伟达
Transformer
Anthropic
模态
深度学习
百度
驾驶
文本
AI视频
苹果
搜索
神器推荐
算力
LLaMA
科技
Copilot
xAI
视频生成
安全
应用
干货合集
字节跳动
2024
人形机器人
具身智能
特斯拉
亚马逊
视觉
语音
Claude
大语言模型
AI应用场景
AGI