Meta 公司周四宣布推出名为 Meta Motivo 的人工智能模型,该模型旨在控制类人数字智能体的动作,从而提升元宇宙体验。
Meta 还发布了大型概念模型 LCM 和视频水印工具 Video Seal 等 AI 工具,并重申其对 AI、AR 和元宇宙技术持续投入的决心。
AI在线注:Meta Motivo 是一个基于行为的基础模型,在 Mujoco 模拟器中进行训练,使用了 AMASS 动作捕捉数据集的子集和 3000 万个在线交互样本,通过一种新型的无监督强化学习算法进行预训练,以控制复杂虚拟人形智能体的运动。
Meta Motivo 使用一种新颖的 FB-CPR 算法进行训练,该算法利用未标记的动作数据集,保留零样本推理能力的同时,将无监督强化学习引导至学习类似人类的行为。
尽管模型没有经过任何特定任务的显式训练,但在预训练过程中,动作轨迹跟踪(例如侧手翻)、姿势到达(例如阿拉贝斯克舞姿)和奖励优化(例如跑步)等任务的性能都得到了提升,展现出更接近人类的行为。
该算法的关键技术创新在于学习表示(representation),该表示可以将状态、动作和奖励嵌入到相同的潜在空间中。因此,Meta Motivo 能够解决各种全身控制任务,包括运动跟踪、目标姿态到达和奖励优化,而无需任何额外的训练或规划。
参考
Zero-Shot Whole-Body Humanoid Control via Behavioral Foundation Models
Introducing Meta Motivo
Github