HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

简介第八届HANDS将在ECCV24(9月30日下午,米兰)举办,包含研讨会和挑战赛。HANDS将为相关手部研究人员和从业者提供一个分享工作和讨论潜在合作的平台。过去7届HANDS也取得了极大的成功。本文档属于翻译,信息以官网为准。HANDS@ECCV24 主页::研讨会专注于手部相关方向,将邀请手部相关领域的专家做前沿报告。特别的,我们诚邀相关长文投稿。手部挑战赛:挑战赛基于最新的手部大数据集AssemblyHands、ARCTIC、OakInk2和UmeTrack,组织多个赛道,希望推动相关算法的发展。论文投稿

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

简介

第八届HANDS将在ECCV24(9月30日下午,米兰)举办,包含研讨会和挑战赛。HANDS将为相关手部研究人员和从业者提供一个分享工作和讨论潜在合作的平台。过去7届HANDS也取得了极大的成功。本文档属于翻译,信息以官网为准。

HANDS@ECCV24 主页:https://hands-workshop.org/

手部研讨会和投稿:研讨会专注于手部相关方向,将邀请手部相关领域的专家做前沿报告。特别的,我们诚邀相关长文投稿。

手部挑战赛:挑战赛基于最新的手部大数据集AssemblyHands、ARCTIC、OakInk2和UmeTrack,组织多个赛道,希望推动相关算法的发展。

论文投稿

投稿网址:https://cmt3.research.microsoft.com/HANDS2024

投稿方向:所有手部相关方向,包括且不限于手部姿态估计、手部重构、手物交互、手势分析、手势生成、手语识别、机械手控制和机械手抓取等等

投稿规则:长文采取单轮双盲审且不设反驳阶段,采取ECCV24官方模板和限制,录取后会出版在ECCV24会议论文集。我们同样接受长摘要和海报投稿。长摘要和海报不会出版,但是方便交流和推广相关工作。详细内容见官网。

挑战赛

我们基于最新的手部大数据集AssemblyHands、ARCTIC、OakInk2和UmeTrack,组织4个赛道的挑战。挑战获胜者将会获得相应的奖励,并在研讨会上推广自己的方法。现已开放下载数据集,欢迎大家参加。参与竞赛,请先官网注册,参与挑战期间请遵守相关规定。具体时间节点请关注相关赛道。

更多信息见挑战赛官网:https://hands-workshop.org/challenge2024.html

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

基于AssemblyHands的视角泛化手部姿态估计挑战

该挑战提供了 HANDS2023 中 AssemblyHands 挑战赛的扩展版本。随着多视角 AR/VR 头显(如 Apple Vision Pro、Meta Quest 等)日益受到关注,我们将 3D 手部姿态估计这一领域由单视角扩展到多视角设置。在该挑战中,参赛者需要无监督地优化所提供的预训练模型并使其适应多种双视角设置,而双视角的相机参数均为未知。具体来说,我们使用 AssemblyHands 数据集的多视角数据来构建该赛道。

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

基于ARCTIC的双手手物交互三维重构挑战

人类每天都会与各种物体互动,因此,对这些互动进行整体的 3D 捕捉对于人类行为建模至关重要。由于我们自然地用双手进行互动,因此我们提出了双手类别无关的重建挑战赛,从视频片段中重建双手和物体的3D信息,而不依赖于预先扫描的模板。这项任务更具挑战性,因为双手操作表现出严重的手部与物体遮挡和动态手部与物体接触。

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

基于OakInk2的手物交互轨迹生成挑战

该挑战赛的重点是利用物体功能性来合成物理上可行的手物交互。目标是利用现有数据集中的演示轨迹来生成在指定的物理模拟环境中完成指定功能的手部与物体交互轨迹。参赛者需要合成可以在模拟环境中展开的轨迹。这些轨迹需要利用物体的功能从给定的任务初始状态实现任务目标。我们使用 OakInk2 数据集(Zhan et al. CVPR'24)作为本次挑战赛中演示轨迹的来源。OakInk2 包含以实现物体可供性为中心的手部与物体交互演示。在本次挑战赛中,我们为 IsaacGyn 环境提供从人手 (MANO) 到灵巧化身 (ShadowHand) 的转移演示。

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

基于MegoTrack多视角自我中心手部跟踪挑战

该挑战旨在利用多视角自我中心相机,推动为 AR/VR 系统量身定制的实用手部追踪算法的开发。参与者将有机会利用 AR/VR 系统的独特功能来增强手部追踪算法的稳健性。今年,推出两个不同任务:

1. 手部重构:使用校准的立体视频确定手部重构。

2. 手部姿态估计:利用预校准的手形,在校准的立体视频中跟踪手部姿态。

为了鼓励开发可推广的方法,我们将采用两个具有不同配置的数据集:UmeTrack 和 HOT3D,后者最近在 CVPR 上推出。

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

演讲者

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

组织团队

HANDS@ECCV24 手部研讨会和挑战赛,诚邀投稿和参与竞赛

联系方式

[email protected]

相关资讯

关键点检测项目代码开源了!

作者:闫永强,算法工程师,Datawhale成员 本文通过自建手势数据集,利用YOLOv5s检测,然后通过开源数据集训练squeezenet进行手部关键点预测,最后通过指间的夹角算法来判断具体的手势,并显示出来。文章第四部分为用C 实现整体的ncnn推理(代码较长,可先马后看)一、YOLOV5训练手部检测训练及部署思路类似表情识别,需要将handpose数据集标签改成一类,只检测手部,简化流程,更易上手。此部分数据集来源格物钛  ,具体的效果如图:本教程所用训练环境:系统环境:Ubuntu16.04cuda版本:

智加科技论文DualBEV入选计算机视觉顶会ECCV

近日,智加科技团队论文《DualBEV: Unifying Dual Veiw Transformation with Probabilistic Correspondences》入选欧洲计算机视觉国际会议(ECCV, European Conference on Computer Vision),ECCV是计算机视觉领域最具影响力和权威性的国际会议之一,与国际计算机视觉大会(ICCV)和计算机视觉与模式识别会议(CVPR)齐名,被誉为计算机视觉领域的“三大顶会”之一。ECCV 每两年举办一次,汇聚了全球顶尖的研究

腾讯混元开源 Hunyuan3D-1.0:首个同时支持文生和图生的 3D 开源大模型

腾讯混元今日开源了 Hunyuan3D-1.0 大模型,官方称这是首个同时支持文生和图生的 3D 开源大模型。 ▲ 文生模型▲ 图生模型模型采用两阶段生成方法,官方表示在保证质量和可控的基础上,10 秒即可生成 3D 资产:第一阶段,团队采用了一种多视角扩散模型,轻量版模型能够在大约 4 秒内生成多视角图像。 这些多视角图像从不同的视角捕捉了 3D 资产的丰富的纹理和几何先验,将任务从单视角重建松弛到多视角重建第二阶段,团队引入了一种前馈重建模型,利用上一阶段生成的多视角图像。