Meta 发布 Sapiens 视觉模型,让 AI 分析和理解图片 / 视频中人类动作

Meta Reality 实验室最新推出了名为 Sapiens 的 AI 视觉模型,适用于二维姿势预估、身体部位分割、深度估计和表面法线预测 4 种以人为中心的基本视觉任务。这些模型的参数数量各不相同,从 3 亿到 20 亿不等。它们采用视觉转换器架构,任务共享相同的编码器,而每个任务有不同的解码器头。二维姿势预估:这项任务包括检测和定位二维图像中人体的关键点。这些关键点通常与肘、膝和肩等关节相对应,有助于了解人的姿势和动作。身体部位分割:这项任务将图像分割成不同的身体部位,如头部、躯干、手臂和腿部。图像中的每个像

Meta Reality 实验室最新推出了名为 Sapiens 的 AI 视觉模型,适用于二维姿势预估、身体部位分割、深度估计和表面法线预测 4 种以人为中心的基本视觉任务。

Meta 发布 Sapiens 视觉模型,让 AI 分析和理解图片 / 视频中人类动作

这些模型的参数数量各不相同,从 3 亿到 20 亿不等。它们采用视觉转换器架构,任务共享相同的编码器,而每个任务有不同的解码器头。

二维姿势预估:这项任务包括检测和定位二维图像中人体的关键点。这些关键点通常与肘、膝和肩等关节相对应,有助于了解人的姿势和动作。

身体部位分割:这项任务将图像分割成不同的身体部位,如头部、躯干、手臂和腿部。图像中的每个像素都被归类为属于特定的身体部位,这对虚拟试穿和医学成像等应用非常有用。

深度估计:这项任务是估算图像中每个像素与摄像头的距离,从而有效地从二维图像中生成三维图像。这对增强现实和自动驾驶等应用至关重要,因为在这些应用中,了解空间布局非常重要。

表面法线预测:这项任务是预测图像中表面的方向。每个像素都会分配一个法向量,表示表面朝向的方向。这些信息对于三维重建和了解场景中物体的几何形状非常有价值。

Meta 发布 Sapiens 视觉模型,让 AI 分析和理解图片 / 视频中人类动作

Meta 发布 Sapiens 视觉模型,让 AI 分析和理解图片 / 视频中人类动作

Meta 公司表示该模型可原生支持 1K 高分辨率推理,并且非常容易针对个别任务进行调整,只需在超过 3 亿张野生人类图像上对模型进行预训练即可。

即使在标注数据稀缺或完全是合成数据的情况下,所生成的模型也能对野生数据表现出卓越的泛化能力。

Meta 发布 Sapiens 视觉模型,让 AI 分析和理解图片 / 视频中人类动作

AI在线附上参考地址

Sapiens: Foundation for Human Vision Models

Sapiens: Foundation for Human Vision Models

GitHub

相关资讯

英伟达将在中东五国数据中心部署 AI 技术,首次在当地大规模推出产品

据路透社报道,卡塔尔电信集团 Ooredoo 首席执行官 Aziz Aluthman Fakhroo 当地时间 23 日在接受采访时表示,公司已经与英伟达签署协议,将在该公司于中东 5 个国家拥有的数据中心部署 AI 技术。此举意味着英伟达首次在中东地区大规模推出产品,Ooredoo 将成为该地区首家能够为其数据中心客户提供直接访问英伟达 AI 和图形处理技术权限的公司。此前,华盛顿曾限制向该地区出口美制尖端芯片。IT之家注:上文提到的 5 个中东国家包括卡塔尔、阿尔及利亚、突尼斯、阿曼、科威特。除此之外,Oore

CVPR 2021 Oral | 室内动态场景中的相机重定位

本文是对发表于计算机视觉和模式识别领域的顶级会议 CVPR 2021的 Oral 论文 “Robust Neural Routing Through Space Partitions for Camera Relocalization in Dynamic Indoor Environments”(通过在空间划分中鲁棒的神经路由实现室内动态场景的相机重定位)的解读。 该论文由北京大学陈宝权研究团队与山东大学、北京电影学院、斯坦福大学和 Google Research 合作,针对室内动态变化场景的相机重定位问题,提出在场景空间划分中进行路由的思想,记忆场景静态信息的同时感知场景动态信息,从而实现鲁棒的相机位姿预测。 实验证明,该方法显著提升了动态变化场景中的相机重定位效果。

「十亿像素」引领视觉智能技术变革,2022 GigaVision挑战赛圆满落幕

2012 年,深度学习在 ImageNet 图像挑战赛中取得了巨大的突破,被广泛认为是第三次人工智能革命的标志性事件。以此为开端,十多年间,从人脸识别、跟踪到动作识别,围绕各类视觉智能任务的技术都取得了显著的进展,人工智能理论与技术的大变革时代终于到来。