简介
第八届HANDS将在ECCV24(9月30日下午,米兰)举办,包含研讨会和挑战赛。HANDS将为相关手部研究人员和从业者提供一个分享工作和讨论潜在合作的平台。过去7届HANDS也取得了极大的成功。本文档属于翻译,信息以官网为准。
HANDS@ECCV24 主页:https://hands-workshop.org/
手部研讨会和投稿:研讨会专注于手部相关方向,将邀请手部相关领域的专家做前沿报告。特别的,我们诚邀相关长文投稿。
手部挑战赛:挑战赛基于最新的手部大数据集AssemblyHands、ARCTIC、OakInk2和UmeTrack,组织多个赛道,希望推动相关算法的发展。
论文投稿
投稿网址:https://cmt3.research.microsoft.com/HANDS2024
投稿方向:所有手部相关方向,包括且不限于手部姿态估计、手部重构、手物交互、手势分析、手势生成、手语识别、机械手控制和机械手抓取等等
投稿规则:长文采取单轮双盲审且不设反驳阶段,采取ECCV24官方模板和限制,录取后会出版在ECCV24会议论文集。我们同样接受长摘要和海报投稿。长摘要和海报不会出版,但是方便交流和推广相关工作。详细内容见官网。
挑战赛
我们基于最新的手部大数据集AssemblyHands、ARCTIC、OakInk2和UmeTrack,组织4个赛道的挑战。挑战获胜者将会获得相应的奖励,并在研讨会上推广自己的方法。现已开放下载数据集,欢迎大家参加。参与竞赛,请先官网注册,参与挑战期间请遵守相关规定。具体时间节点请关注相关赛道。
更多信息见挑战赛官网:https://hands-workshop.org/challenge2024.html
基于AssemblyHands的视角泛化手部姿态估计挑战
该挑战提供了 HANDS2023 中 AssemblyHands 挑战赛的扩展版本。随着多视角 AR/VR 头显(如 Apple Vision Pro、Meta Quest 等)日益受到关注,我们将 3D 手部姿态估计这一领域由单视角扩展到多视角设置。在该挑战中,参赛者需要无监督地优化所提供的预训练模型并使其适应多种双视角设置,而双视角的相机参数均为未知。具体来说,我们使用 AssemblyHands 数据集的多视角数据来构建该赛道。
基于ARCTIC的双手手物交互三维重构挑战
人类每天都会与各种物体互动,因此,对这些互动进行整体的 3D 捕捉对于人类行为建模至关重要。由于我们自然地用双手进行互动,因此我们提出了双手类别无关的重建挑战赛,从视频片段中重建双手和物体的3D信息,而不依赖于预先扫描的模板。这项任务更具挑战性,因为双手操作表现出严重的手部与物体遮挡和动态手部与物体接触。
基于OakInk2的手物交互轨迹生成挑战
该挑战赛的重点是利用物体功能性来合成物理上可行的手物交互。目标是利用现有数据集中的演示轨迹来生成在指定的物理模拟环境中完成指定功能的手部与物体交互轨迹。参赛者需要合成可以在模拟环境中展开的轨迹。这些轨迹需要利用物体的功能从给定的任务初始状态实现任务目标。我们使用 OakInk2 数据集(Zhan et al. CVPR'24)作为本次挑战赛中演示轨迹的来源。OakInk2 包含以实现物体可供性为中心的手部与物体交互演示。在本次挑战赛中,我们为 IsaacGyn 环境提供从人手 (MANO) 到灵巧化身 (ShadowHand) 的转移演示。
基于MegoTrack多视角自我中心手部跟踪挑战
该挑战旨在利用多视角自我中心相机,推动为 AR/VR 系统量身定制的实用手部追踪算法的开发。参与者将有机会利用 AR/VR 系统的独特功能来增强手部追踪算法的稳健性。今年,推出两个不同任务:
1. 手部重构:使用校准的立体视频确定手部重构。
2. 手部姿态估计:利用预校准的手形,在校准的立体视频中跟踪手部姿态。
为了鼓励开发可推广的方法,我们将采用两个具有不同配置的数据集:UmeTrack 和 HOT3D,后者最近在 CVPR 上推出。