亚马逊公司的云部门发布,已与人工智能初创公司 Hugging Face 分工,将在亚马逊的定制计算芯片上更低成本地运转数千个 AI 模型。
估值 45 亿美元(IT之家备注:当前约 326.25 亿元人民币)的 Hugging Face 已成为 AI 研究人员和开发者分享聊天机器人或其他 AI 软件的中心,并得到了亚马逊、Alphabet 旗下的谷歌和英伟达等公司的支持,它是开发者获取和调整开源 AI 模型(如 Meta Platforms 的 Llama 3)的主要平台。
当开发人员调整了开源的 AI 模型后,他们通常希望使用该模型来驱动软件。亚马逊和 Hugging Face 周三发布,他们已经分工在一个名为 Inferentia2 的定制亚马逊网络服务(AWS)芯片上实现这一目标。
“对我们来说,效率非常重要 —— 确保尽可能多的人能够运转模型,并且能够以最具成本效益的方式运转,”Hugging Face 的产品和增长负责人 Jeff Boudier 说。
AWS 希望吸引更多的 AI 开发者使用其云服务来交付 AI。虽然英伟达在训练模型的市场上占据主导地位,但 AWS 认为其芯片可以以较低成本运转那些经过训练的模型。
负责 AWS 人工智能产品的 Matt Wood 表示,你可能每个月训练这些模型一次,但可能每小时对它们进行成千上万次推理,这是 Inferentia2 真正闪光的地方。