在经典红白机上玩拳击游玩是很多人的童年回忆,其中就包括任天堂 1987 年发布的拳击格斗游玩——「Punch Out(拳无虚发)」。
在这款游玩中,玩家的设定是一个拳击小白,需要在教练的指导下战胜各种大块头对手,最后挑战终极大 boss 拳王泰森。当然,泰森本人也玩过这款游玩。
随着网游、大型单机等各种游玩的兴起,红白机逐渐退出历史舞台,成了怀旧的代表,早期版本的「Punch Out」也很少有人玩了。
但最近,一位名叫 Ian Charnas 的网友又把这款游玩翻了出来,而且自己开发了一种新的玩法——加入体感控制。简单来说,在这款 DIY「拳无虚发」中,你可以借助摄像头和 AI 算法控制游玩中的角色,就像在玩 Switch、Xbox 的体感游玩,但成本几乎为零。
为了增加游玩的沉浸感,他甚至在身上绑了个电击臂环,从而在受到攻击时能得到更真实的反馈。
那么,这个新游玩是怎么做出来的呢?Ian Charnas 在视频中介绍了几个主要步骤。
首先,你要找到一个能进行实时姿势估计的算法。Ian 用的是google的 MoveNet,这个模型能够快速、准确地检测人体的 17 个关键点。
接下来就要想办法将游玩从原始的游玩盘导到电脑浏览器上。由于 80 年代的任天堂连 USB 接口都没有,Ian 就先把原始游玩机改装了一番。
成功把游玩代码导入电脑之后,Ian 又找了一个任天堂模拟器来运转该游玩。此时,一个体感游玩基本完成。
但真正上手玩之后,Ian 发现了一个问题:姿势识别输入比手柄输入要慢,但对手的出拳速率并没有变,这就很难赢。
要想赢,要么提高自己的出拳速率,要么拖慢对手的速率,Ian 选择了后者。这就需要修改游玩代码。但「拳无虚发」的原始游玩代码并不是写给人看的:
为了读懂这些代码,Ian 对源代码进行了逆向工程(反汇编),并对游玩人物的速率进行逐一修改,使得每一个人物都是可被击败的。
在完成这些操作之后,Ian 成功打败了终极 boss 泰森。
最后,Ian 还把游玩以及配套的教程放到了网上,点击以下网站、打开摄像头就可以试玩:https://reallifepunchout.com/
MoveNet 是个什么模型?
上述进行实时姿势估计的算法用到了google今年推出的 MoveNet 模型,它是一个预训练模型,所以设置好以后即可使用。该模型能够快速、准确地检测人体的 17 个关键节点(如脚踝、膝盖、肩膀、手肘、手腕、耳朵、眼睛和鼻子等),能够以 50+ fps 的速率在笔记本电脑和手机上运转。该模型已在 TF Hub 上提供,有两个变体,分别称为 Lightning 和 Thunder。Lightning 适用于对延迟要求严格的应用,而 Thunder 适用于对准确性要求较高的应用。因此,我们可以看到 Thunder 模型的关键点得分通常会比 Lightning 略高。
MoveNet 在两个数据集上训练完成:COCO 和一个名为 Active 的google内部数据集。其中 Active 数据集通过在 YouTube 上的瑜伽、健身和舞蹈视频中标注关键点(采用了 COCO 的 17 个身体关键点标准)而产生。训练时,每段视频不超过三帧,以增加场景和个体的多样性。
Active 关键点数据集的图像
通过完全在客户端运转该模型的方式可实现对运转速率的需求,即在使用 TensorFlow.js 的浏览器中运转且在初始页面加载后不需要服务器调用,也不需要安装任何依赖项。
MoveNet 可以通过快速动作和非典型姿势跟踪关键点。
传统方案(上)与 MoveNet(下)在高难度姿势检测上的对比结果,传统方案会跟丢关键点,而 MoveNet 不会
MoveNet 架构
MoveNet 是一种自下而上的估计模型,使用热图来准确定位人体关键点。该架构由两个组件组成:一个特征提取器和一组预计头。预计方案大致遵循 CenterNet,但变化明显,提高了速率和准确率。所有的模型都是用 TensorFlow 对象检测 API 进行训练。
MoveNet 中的特征提取器是带有附加特征金字塔网络 (FPN) 的 MobileNetV2,它允许高分辨率(输出跨度为 4),此外还提供语义丰富的特征图输出。该特征提取器具有四个预计头,负责密集地预计:
人体中心热图:预计人体实例的几何中心;
关键点回归域:预计人体的全部关键点,用于将关键点分组到实例中;
人体关键点热图:预计所有关键点的位置,不依赖于人体实例;
2D 每关键点偏移域:预计从每个输出特征图像素到每个关键点的精确子像素位置的局部偏移量。
MoveNet 架构图
MoveNet 模型分四步来完成预计,过程如下图所示:
以下是关于 MoveNet 模型的更多参考资料:
TF Hub 运转:http://tensorflow.google.cn/hub
Lightning:https://hub.tensorflow.google.cn/google/tfjs-model/movenet/singlepose/lightning/3
Thunder:https://hub.tensorflow.google.cn/google/tfjs-model/movenet/singlepose/thunder/3
参考链接:https://blog.tensorflow.org/2021/05/next-generation-pose-detection-with-movenet-and-tensorflowjs.html