只想知道 Llama 3 何时能来?
生成式大模型给人工智能领域带来了重大变革,人们在看到实现通用人工智能(AGI)希望的同时,训练、布署大模型的算力需求也越来越高。
刚刚,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100),标志着 Meta 为人工智能的未来做出了一笔重大的投资。
这是 Meta 雄心勃勃的基础设施路线图中的一步。Meta 会持续扩大基础设施建设,到 2024 年底将包括 350000 个 NVIDIA H100 GPU,其计算能力将相当于近 600000 个 H100。
Meta 表示:「我们坚定致力于封闭计算和开源。我们在 Grand Teton、OpenRack 和 PyTorch 之上建立了这些集群,并将继续推动整个行业的封闭创新。我们会使用这种算力集群来训练 Llama 3。」
图灵奖得主、Meta 首席科学家 Yann LeCun 也发推强调了这一点。
Meta 分享了新集群在硬件、收集、保存、计划、功能和软件方面的详细信息。新集群将为各种人工智能工作负载获取高吞吐量和高可靠性。
集群概览
Meta 的长期愿景是建立封闭且负责任的通用人工智能,以便让每个人都能广泛使用并从中受益。
2022 年,Meta 首次分享了一个 AI 研究超级集群 (RSC) 的详细信息,该集群配备 16000 个 NVIDIA A100 GPU。RSC 在 Llama 和 Llama 2 的开发以及计算机视觉、NLP、语音识别、图像生成、编码等方向的高级人工智能模型的开发中发挥了重要作用。
Meta 现在推出的新的人工智能集群建立在 RSC 的成功和经验教训的基础上。Meta 表示其专注于建立端到端人工智能体系,重点关注研究人员和开发人员的体验和生产力。
新集群中高功能收集结构的效率、一些关键的保存决策,再加上每个集群中的 24576 个 NVIDIA Tensor Core H100 GPU,使两个集群都能够支持比 RSC 集群可支持的模型更大、更复杂的模型。
收集
Meta 每天处理数百万亿个人工智能模型的运行。大规模提供人工智能模型服务需要高度先进且灵活的基础设施。
为了优化人工智能研究人员的端到端体验,同时确保 Meta 的数据中心高效运行,Meta 基于 Arista 7800 以及 Wedge400 和 Minipack2 OCP 机架交换机建立了一个采用 RoCE 协议(一种集群收集通信协议,实现在以太网上进行远程直接内存访问(RDMA))的收集结构集群。另一个集群则采用 NVIDIA Quantum2 InfiniBand 结构。这两种解决方案都互连 400 Gbps 端点。
这两个新集群可以用来评估不同类型的互连对于大规模训练的适用性和可扩展性,帮助 Meta 了解未来如何计划和建立更大规模的集群。通过对收集、软件和模型架构的仔细协同计划,Meta 成功地将 RoCE 和 InfiniBand 集群用于庞大 GenAI 工作负载,而没有任何收集瓶颈。
计算
这两个集群都是使用 Grand Teton 建立的,Grand Teton 是 Meta 内部计划的封闭 GPU 硬件平台。
Grand Teton 以多代人工智能体系为基础,将电源、控制、计算和结构接口集成到单个机箱中,以实现更好的整体功能、信号完整性和热功能。它以简化的计划提供快速的可扩展性和灵活性,使其能够快速布署到数据中心队列中并轻松进行维护和扩展。
保存
保存在人工智能训练中发挥着重要作用,但却是最少被谈论的方面之一。
随着时间的推移,GenAI 训练工作变得更加多模态,消耗大量图像、视频和文本数据,对数据保存的需求迅速增长。
Meta 新集群的保存布署通过用户空间中的本地 Linux 文件体系 (FUSE) API 来满足 AI 集群的数据和检查点需求,该 API 由 Meta 的「Tectonic」分布式保存解决方案提供支持。这种解决方案使数千个 GPU 能够以同步方式保存和加载检查点,同时还提供数据加载所需的灵活且高吞吐量的 EB 级保存。
Meta 还与 Hammerspace 合作,共同开发并落地并行收集文件体系(NFS)布署。Hammerspace 使工程师能够使用数千个 GPU 对作业执行交互式调试。
功能
Meta 建立大规模人工智能集群的原则之一是同时最大限度地提高功能和易用性。这是创建一流人工智能模型的重要原则。
Meta 在突破人工智能体系的极限时,测试扩展计划能力的最佳方法就是简单建立一个体系,然后优化并实际测试(虽然模拟器有帮助,但也只能到此为止)。
此次计划,Meta 比较了小型集群和庞大集群的功能,以了解瓶颈所在。下显示了当大量 GPU 以预期功能最高的通信大小相互通信时,AllGather 集体功能(以 0-100 范围内的标准化带宽表示)。
与优化的小型集群功能相比,庞大集群的开箱即用功能最初很差且不一致。为了解决这个问题,Meta 对内部作业调度程序通过收集拓扑感知来调的方式进行了一些改动,这带来了延迟优势并最大限度地减少了流向收集上层的流量。
Meta 还结合 NVIDIA Collective Communications Library (NCCL) 改动优化了收集路由策略,以实现最佳的收集利用率。这有助于推动庞大集群像小型集群一样实现出色的预期功能。
从图中我们可以看到,小集群功能(整体通信带宽和利用率)开箱即达到 90%+,但未经优化的庞大集群功能利用率非常低,从 10% 到 90% 不等。在优化整个体系(软件、收集等)后,我们看到庞大集群功能恢复到理想的 90%+ 范围。
除了针对内部基础设施的软件改动之外,Meta 还与编写训练框架和模型的团队密切合作,以适应不断发展的基础设施。例如,NVIDIA H100 GPU 开启了利用 8 位浮点 (FP8) 等新数据类型进行训练的可能性。充分利用更大的集群需要对额外的并行化技术和新的保存解决方案进行投资,这提供了在数千个级别上高度优化检查点以在数百毫秒内运行的机会。
Meta 还认识到可调试性是大规模训练的主要挑战之一。大规模识别出导致整个训练停滞的出错 GPU 非常困难。Meta 正在建立诸如异步调试或分布式集体飞行记录器之类的工具,以公开分布式训练的细节,并帮助以更快、更简单的方式识别出现的问题。
参考链接:https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/