港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体
当前,多模态大模型 (MLLM)在多项视觉任意上展现出了强大的认知理解本领。然而大部分多模态大模型局限于单向的图象理解,难以将理解的内容映射回图象上。比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。定位本领的缺失直接限制了多模态大模型在图象编辑,自动驾驶,机器人控制等下游领域的应用。针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式 Groma——通过地区性图象编…- 6
- 0
Groma
❯
个人中心
今日签到
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
- ¥优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!