Meta SAM 2 登场:首个能在图片和视频中实时分割对象的统一开源 AI 模型

感谢Meta 公司发布 Meta Segment Anything Model 2(SAM2),SAM 2 能分割任何目标,能在一个视频中实时追踪所有镜头 —— 解锁新的视频编辑能力并在混合现实中提供新的体验。Meta 公司今天发布新闻稿,介绍了全新的 Meta Segment Anything Model 2(SAM 2)模型,先支持分割视频和图像中的对象。开源Meta 公司宣布将以 Apache 2.0 许可发布 SAM 2,因此任何人都可以使用它来构建自己的体验。Meta 还将以 CC BY 4.0 许可共享

感谢Meta 公司发布 Meta Segment Anything Model 2(SAM2),SAM 2 能分割任何目标,能在一个视频中实时追踪所有镜头 —— 解锁新的视频编辑能力并在混合现实中提供新的体验。

Meta SAM 2 登场:首个能在图片和视频中实时分割对象的统一开源 AI 模型

Meta 公司今天发布新闻稿,介绍了全新的 Meta Segment Anything Model 2(SAM 2)模型,先支持分割视频和图像中的对象。

开源

Meta 公司宣布将以 Apache 2.0 许可发布 SAM 2,因此任何人都可以使用它来构建自己的体验。

Meta 还将以 CC BY 4.0 许可共享用于构建 SAM 2 的数据集 SA-V,并发布基于网络的演示体验,所有人都可以在其中试用 Meta 的模型版本。

对象分割

对象分割(Object segmentation)是指识别图像中与感兴趣物体相对应的像素,是计算机视觉领域的一项基本任务。

Meta SAM 2 登场:首个能在图片和视频中实时分割对象的统一开源 AI 模型

Meta SAM 2 登场:首个能在图片和视频中实时分割对象的统一开源 AI 模型

Meta 公司去年发布了 SAM 1 基础模型,已经可以在图像上分割对象。而最新发布的 SAM 2 可用于图片和视频,并可以实现实时、可提示的对象分割。

SAM 2 在图像分割准确性方面超越了以往的能力,在视频分割性能方面优于现有成果,同时所需的交互时间减少了三倍。

SAM 2 还可以分割任何视频或图像中的任何对象(通常称为零镜头泛化),这意味着它可以应用于以前未见过的视觉内容,而无需进行自定义调整。

AI在线附上参考地址

segment-anything-2

Introducing SAM 2: The next generation of Meta Segment Anything Model for videos and images

Our New AI Model Can Segment Anything – Even Video

 SAM 2: The next generation of Meta Segment Anything Model for videos and images

Meta Unveils SAM 2: A Unified Model for Real-Time Object Segmentation in Images and Videos

给TA打赏
共{{data.count}}人
人已打赏
应用

黄仁勋、扎克伯格支持 AI 大模型开源,两人互换外套

2024-7-30 9:16:20

应用

AI 图像生成平台 LiblibAI 融资总额达数亿元;Meta 曝训练 Llama 3 每 3 小时「罢工」一次丨AI情报局

2024-7-30 10:17:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索