CVPR 2024 | 字节提出新一代数据集COCONut,比COCO粒度分割更密集

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]。随着人工智能的发展,语言模型和生成模型获得了大量的成功并且在设计模型的过程中,模型的参数量也越来越大。对于细粒度理解任务,模型参数量也同样在增加。然而目前现有的数据集存在规模和精度的矛盾

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]

随着人工智能的发展,语言模型和生成模型获得了大量的成功并且在设计模型的过程中,模型的参数量也越来越大。对于细粒度理解任务,模型参数量也同样在增加。然而目前现有的数据集存在规模和精度的矛盾,例如 SA-1B 数据集中 99.1% 的 mask 都是机器生成的,但没有赋予语义的标签,而其他一些公开数据集也同样存在精度问题并且这些数据集的规模一般都比较小。

近期,字节跳动提出了新一代细粒度理解的数据集,针对当代深度学习模型的设计需求,给总量为 383K 的图片进行了全景分割的人工标注,最后达到了 5.18M 张 mask,是至今最大规模的带人工标签的全景分割理解数据集,命名为 COCONut。该成果已入选 CVPR2024。

图片

论文链接:https://arxiv.org/abs/2404.08639

代码和数据集链接: https://xdeng7.github.io/coconut.github.io/ 

视频展示了 COCONut 的单张图片的 mask 密度以及语义类别的统计,可以看出,数据集的语义丰富以及 mask 分割粒度精细。该数据集还支持多种理解任务,例如全景分割,实例分割,语义分割,目标检测,语义控制生成和开放词汇分割,在多项任务上,仅通过替换数据集就达到了明显的性能提升。

图片

标注方法

通常只采用人工标注是非常昂贵的,这也是目前现存的大多数公开数据集规模上不去的一个重要原因。还有一些数据集直接使用模型生成的标签,但往往这种生成的标签对模型的训练不会有太大的提高,本文也验证了这一点。所以本文提出了一种新颖的标注方式,结合人工的半自动标签生成。既能保证数据标注的精度又能实现人工劳动力的节省成本,同时还能加速标注过程。

图片

标注精度对比

研究者把 COCONut 和 COCO 在同一张图上的标注进行对比。从下图的对比可以看到本文提出的标注方法达到了和纯人工用 Photoshop 标注几乎一致的精度,但是在标注速度上提高了 10 倍以上。

图片

图片

COCONut 数据集详情

和已有的 COCO 数据集相比,数据集各个类别的分布比较相近,但是在每张图的 mask 总量上是超过 COCO 数据集的,尤其是有大量单张图片有超过 100 张 mask 的情况,由此说明了 COCONut 的标注更为精细,粒度分割更密集。

图片

实验验证

除了提出一个更好的训练集,研究者还发现现有的验证集不能很好的体现模型性能的提升,因此本文还提出了一个更加富有挑战性的、可以反映模型的提升的测试集,命名为 COCONut-val. 从下表可以看到,仅替换数据集,更高精度的训练集可以带来模型很大的提升,例如在全景分割上达到超过 4 个点的 PQ。然而当训练集的规模增加了之后,可以发现,用现有的测试集做测试并不能反映出模型的提升,而 COCONut-val 则能反映出模型在增加了训练集数据量之后仍然有明显的提升。

图片

下图为验证集语义类别和 mask 密度的对比,可以看出新提出的验证集更具有挑战性,更能反映模型的提升。

图片

了解更多实验结果可参考原论文,团队后续将在 GitHub 主页提供数据集和相应的模型公开下载。

字节跳动智能创作团队

智能创作团队是字节跳动 AI & 多媒体技术团队,覆盖了计算机视觉、音视频编辑、特效处理等技术领域,借助公司丰富的业务场景、基础设施资源和技术协作氛围,实现了前沿算法 - 工程系统 - 产品全链路的闭环,旨在以多种形式为公司内部各业务提供业界前沿的内容理解、内容创作、互动体验与消费的能力和行业解决方案。

目前,智能创作团队已通过字节跳动旗下的云服务平台火山引擎向企业开放技术能力和服务。更多大模型算法相关岗位开放中。

相关资讯

还得是抖音,字节推出竖屏视频理解数据集,入选CVPR2024

短视频在当下社交媒体逐渐成为主导的视频格式。传统视频处理技术和研究一般都专注于横屏视频的理解和解析,而竖屏视频因其拍摄手法和内容重点不同,展示出与横屏视频数据不同的特性。针对这一不同,字节跳动技术团队发布了专注于竖屏视频理解的数据集,提出了多个针对竖屏视频处理的技术点以及一个初始方案。这项研究对准确的竖屏视频理解和基础技术架构有较为重要的意义,论文已入选 CVPR2024。视频 demo 展示、数据特性演示以及竖屏视频类别分类,请见 :,对视频内容的分类、特征提取,以及推荐等有着重要的作用。竖屏视频是目前社交媒体平

CVPR 2024 | 打破黑白边界,融合美学与实用性的二维码生成技术来了

图表 1第一行:对于同一个二维码,我们可以提供不同美化风格的支持。第二行:放大图像的细节,可以看到我们的算法能得到细节丰富且自然的美学二维码。在数字世界与物理世界无缝连接的今天,二维码(QR codes)已经成为了连接这两个领域的重要桥梁。这种二维编码方式广泛应用于各类场景中,从广告到支付,再到信息传递,几乎无处不在。然而,尽管二维码在功能上表现出色,但它的外观却相对单调,通常以黑白方块为主,难以与现代视觉美学相契合。随着用户和行业需求的不断变化,越来越多的人希望二维码不仅能够高效传递信息,还能具有视觉上的吸引力。

田渊栋团队论文火了!连续思维链优于CoT,打开LLM推理新范式

一个非常简单的更改,就能提高 LLM 推理能力。 在认知科学领域,关于语言是用于思考还是用于交流的辩论一直持续。 随着 LLM 和 CoT 的兴起,语言已经成为机器推理的默认媒介 —— 但它真的是最佳方法吗?