物体

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

简介第八届HANDS将在ECCV24(9月30日下午,米兰)举办,包含研讨会和挑战赛。HANDS将为相关手部研究人员和从业者提供一个分享工作和讨论潜在合作的平台。过去7届HANDS也取得了极大的成功。本文档属于翻译,信息以官网为准。HANDS@ECCV24 主页::研讨会专注于手部相关方向,将邀请手部相关领域的专家做前沿报告。特别的,我们诚邀相关长文投稿。手部挑战赛:挑战赛基于最新的手部大数据集AssemblyHands、ARCTIC、OakInk2和UmeTrack,组织多个赛道,希望推动相关算法的发展。论文投稿

港大字节提出多模态大模型新范式,模拟人类先感知后认知,精确定位图中物体

当前,多模态大模型 (MLLM)在多项视觉任务上展现出了强大的认知理解能力。然而大部分多模态大模型局限于单向的图像理解,难以将理解的内容映射回图像上。比如,模型能轻易说出图中有哪些物体,但无法将物体在图中准确标识出来。定位能力的缺失直接限制了多模态大模型在图像编辑,自动驾驶,机器人控制等下游领域的应用。针对这一问题,港大和字节跳动商业化团队的研究人员提出了一种新范式 Groma——通过区域性图像编码来提升多模态大模型的感知定位能力。在融入定位后,Groma 可以将文本内容和图像区域直接关联起来,从而显著提升对话的交

大模型加持的机器人有多强,MIT CSAIL&IAIFI用自然语言指导机器人抓取物体

来自 MIT CSAIL 和 IAIFI 的研究者将准确的 3D 几何图形与来自 2D 基础模型的丰富语义结合起来,让机器人能够利用 2D 基础模型中丰富的视觉和语言先验,完成语言指导的操作。

三维ImageNet开源!港中深韩晓光团队助力计算机视觉进入三维大数据时代

随着深度学习技术的快速发展,数据驱动的方法已成为计算机视觉领域的核心。在过去的十年里,随着 ImageNet 诞生之后,计算机视觉领域见证了 “从数据中学习” 的范式的兴盛。在 ImageNet 上进行预训练,然后迁移到下游的视觉任务,都能显著提升模型性能,并且已经成为 2D 图像领域的标准化方式。

ICLR 2022 | 操作3D铰接物体的视觉操作轨迹学习

本文是 ICLR 2022入选论文《VAT-Mart: Learning Visual Action Trajectory Proposals for Manipulating 3D ARTiculated Objects》的解读。该论文由北京大学前沿计算研究中心董豪课题组与斯坦福大学、腾讯人工智能实验室合作完成。文章提出了一种新型的物体功能可操作性表示,设计了一个通过交互进行感知学习的框架以学习这个表示,并在多样的物体上完成操作任务。

CVPR2022 | 利用域自适应思想,北大、字节跳动提出新型弱监督物体定位框架

将弱监督物体定位看作图像与像素特征域间的域自适应任务,北大、字节跳动提出新框架显著增强基于图像级标签的弱监督图像定位性能

百度研究院RAL团队登顶nuScenes三维目标检测公开挑战赛榜单

随着自动驾驶技术在不同场景下的持续落地,目标检测作为其中的一项核心模块,对检测算法的精度和稳定性要求越来越高。近日,在国际机器人技术与自动化会议(ICRA 2021)举办的第四届nuScenes三维目标检测挑战赛中,来自百度研究院的机器人与自动驾驶实验室(RAL)团队在三维物体检测任务的多项评价指标中荣获第一,并将关键指标nuScenes Detection Score (NDS)从上一届的71.4%提升至74.9%,刷新了三维目标检测比赛成绩。ICRA2021 nuScenes三维物体检测挑战赛官方排行榜榜单地址
  • 1