谷歌云更新 Kubernetes 引擎,可支持万亿参数的人工智能模型

生成式人工智能模型越来越大,参数已多达 2 万亿个,大型语言模型对计算和存储的需求也在增加。 谷歌云(Google Cloud)今天宣布升级旗下  Kubernetes 引擎的容量,以应对更大规模的模型,Kubernetes . 引擎的容量将从目前支持 15000 个节点集群升级到支持 65000 个节点集群。

谷歌云更新 Kubernetes 引擎,可支持万亿参数的人工智能模型

生成式人工智能模型越来越大,参数已多达 2 万亿个,大型语言模型对计算和存储的需求也在增加。

谷歌云(Google Cloud)今天宣布升级旗下  Kubernetes 引擎的容量,以应对更大规模的模型,Kubernetes 引擎的容量将从目前支持 15000 个节点集群升级到支持 65000 个节点集群。Kubernetes 引擎的扩容将为处理全球最复杂且资源密集型的人工智能任务提供所需的规模和计算能力。

在人工智能加速器工作负载上训练数万亿参数的模型需要超过 10,000 个节点的集群。人工智能模型的参数指的是模型中的变量,这些变量控制着模型的行为方式和预测能力。变量越多,模型准确预测的能力就越强。参数有点类似于模型里的旋钮或开关,模型开发者可以调整这些参数达到提高模型性能或准确性的目的。

谷歌云Kubernetes和无服务器高级产品总监 Drew Bradstock 在接受记者采访时表示,“从根本上讲,大型语言模型(LLM)不断增大,世界各地公司需要非常大的集群才能高效运行这些模型。他们不仅仅需要大型集群。他们需要可靠、可扩展的集群才能应对运行这些 LLM 训练工作负载实际遇到的挑战。”

谷歌 Kubernetes 引擎(缩写为 GKE)是谷歌提供的托管 Kubernetes 服务,GKE 可减少运行容器环境的工作量。GKE 可根据工作负载需求的变化自动添加和移除硬件资源,例如专用人工智能芯片或图形处理单元。GKE 也可以为用户 更新 Kubernetes 及监督其他维护任务。

GKE 新的65,000节点集群能够管理分布在250,000个张量处理单元上的人工智能模型,张量处理单元是用于加速机器学习和生成式人工智能工作负载的专用人工智能处理器。Bradstock 表示,这比 GKE 在单个集群上以前的基准(5 万个 TPU 芯片)提高了五倍。

新的65,000节点集群大大提高了运行大规模人工智能工作负载的可靠性和效率。Bradstock 认为,规模的增加对大规模人工智能训练和推理都很重要,因为 Kubernetes 允许用户无需担心停机就可以处理基于硬件的故障。这也能加快作业完成时间,因为额外的容量可以在更短的时间内运行更多的模型迭代。

Bradstock 表示,为了实现这一目标,谷歌云正在将GKE从开源的分布式键值存储etcd过渡到更强大的基于谷歌分布式数据库Spanner系统。这将使 GKE 集群能够处理几乎无限的规模并提供更低的延迟。

谷歌还对 GKE 基础设施进行了重大改造,改造后 GKE 的扩展速度显著加快。客户需求因此能够更快地得到满足。此外,GKE 也能够在单个集群中运行五个负载作业,每个作业的规模均与谷歌云之前训练大型语言模型的记录相匹配。

Bradstock表示,客户的关注、该系统中人工智能的普及以及人工智能在整个行业的快速发展等等推动了升级需求。谷歌的客户一直都在利用 GKE 的集群功能训练他们的模型,客户包括Anthropic PBC等领先的前沿人工智能模型开发商。

Anthropic 公司计算主管 James Bradbury 表示,“GKE 对更大型集群的新支持为我们提供了加快人工智能创新步伐所需的规模。”

Bradstock表示,在过去的一年里,GKE 上 TPU 和图形处理单元的使用增加了 900%,大大超过了以前的使用量,而以前使用量就已经很大了。他表示,“这主要是由人工智能的快速增长所推动的。人工智能在未来将占 GKE 使用的主

相关资讯

如何使用Kubernetes合理调整GPU和CPU资源以训练和推理AI模型​

译者 | 李睿审校 | 重楼如今,人工智能服务的迅速崛起创造了对计算资源的巨大需求,而如何有效管理这些资源成为一项关键挑战。 虽然使用Kubernetes运行人工智能工作负载已经取得了长足的进步,但基于动态需求优化调度仍然是一个亟待改进的领域。 在全球范围内,许多组织面临与GPU集群的成本和可用性相关的限制,并且通常依赖于这些计算集群来进行推理工作负载和持续的模型训练和微调。

一文读懂为什么 Kubernetes 中需要 DRA (动态资源分配)机制

在现代云原生架构中,Kubernetes 已经成为企业动态资源调度的核心技术。 随着业务需求的复杂性和多样性日益增加,如何高效地在 Kubernetes 集群中分配和调整资源,成为提升系统弹性和利用率的关键课题。 动态资源调度通过智能化地分配 CPU、内存、GPU 等关键资源,不仅能够满足不同负载的性能需求,还能降低资源浪费,提高基础设施的投资回报率。

OpenAI的停机事件教会我们要构建更具弹性的系统

译者 | 李睿审校 | 重楼2024年12月11日, OpenAI公司提供的服务由于新部署的遥测服务出现问题而遭遇重大停机。 此次事件影响了API、ChatGPT和Sora服务,导致持续数小时的服务中断。 作为一家致力于提供准确高效的人工智能解决方案的供应商,OpenAI公司为此发布一份详细的事后分析报告,公开地讨论了出现问题的原因,以及他们如何计划防止在未来发生类似事件。