英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”

感谢英伟达公司昨日(7 月 23 日)发布新闻稿,正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务。“NVIDIA AI Foundry”代工服务英伟达表示客户可以使用 Meta 的 Llama 3.1 AI 模型,以及英伟达的软件、计算和专业知识,为特定领域定制构建“超级模型”。客户可以利用专有数据、由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的合成数据来训练这些“超级模型”。NVIDIA AI Foundry 由 NVIDIA D

感谢英伟达公司昨日(7 月 23 日)发布新闻稿,正式推出“NVIDIA AI Foundry”代工服务和“NVIDIA NIM”推理微服务。

英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”

“NVIDIA AI Foundry”代工服务

英伟达表示客户可以使用 Meta 的 Llama 3.1 AI 模型,以及英伟达的软件、计算和专业知识,为特定领域定制构建“超级模型”。

英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”

客户可以利用专有数据、由 Llama 3.1 405B 和英伟达 Nemotron Reward 模型生成的合成数据来训练这些“超级模型”。

NVIDIA AI Foundry 由 NVIDIA DGX™ Cloud AI 平台提供支持,该平台与世界领先的公共云共同设计,为企业提供大量计算资源,并可根据 AI 需求的变化轻松扩展。

英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”

NVIDIA AI Foundry 包括 Nemotron 和 Edify 等英伟达创建的 AI 模型、流行的开放式基础模型、用于定制模型的 NVIDIA NeMo™ 软件,以及 NVIDIA DGX™ Cloud 上的专用容量(由 NVIDIA AI 专家构建并提供支持)。

输出结果由 NVIDIA NIM(一个推理微服务,其中包括定制模型、优化引擎和标准 API)负责,可以部署到任何地方。

NVIDIA NIM 推理微服务

AI在线注:NVIDIA NIM 是一套加速推理微服务,允许企业在云计算、数据中心、工作站和 PC 等任何地方的 NVIDIA GPU 上运行 AI 模型。

英伟达推出 AI 代工业务:携手 Meta Llama 3.1 开源模型,为客户定制部署“超级模型”

通过使用行业标准的 API,开发人员只需几行代码就能利用 NIM 部署人工智能模型。NIM 容器无缝集成 Kubernetes(K8s)生态系统,可以高效地协调和管理容器化人工智能应用。

参考

How NVIDIA AI Foundry Lets Enterprises Forge Custom Generative AI Models

NVIDIA AI Foundry

Together AI and NVIDIA collaborate to power Llama 3.1 models for enterprises on NVIDIA DGX Cloud

Instantly Deploy Generative AI With NVIDIA NIM

给TA打赏
共{{data.count}}人
人已打赏
应用

OpenAI 调岗 AI 安全高管 Aleksander Madry,新职位专注于 AI 推理

2024-7-24 8:46:16

应用

边缘人工智能提供商 Gcore 获 6000 万美元融资;马斯克开训最大 AI 集群,目标年底开发全球最强 AI丨AI情报局

2024-7-24 9:58:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索