训练130亿大模型仅3天,北大提出Chat-UniVi对立图片和视频懂得
北京大学和中山大学等机构钻研者提出了对立的视觉言语大模型 ——Chat-UniVi。通过建立图片和视频对立表征,该框架使得一个 LLM 能够在图片和视频的混合数据下训练,并同时完成图片和视频懂得工作。更重要的是,该框架极大降低了视觉言语模型训练和推理的开销,使得在三天以内即可训练出具有 130 亿参数的通用视觉言语大模型。Chat-UniVi 模型在图片和视频的下游工作中都取得了卓越的本能。所有代…- 5
- 0
Chat-UniVi
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!