Cortex

如何借助Cortex运行本地LLM

译者 | 布加迪审校 | 重楼AI行业正在经历一场转变,转向更小巧更高效的大语言模型(LLM),从而使用户能够在本地机器上运行模型,无需功能强大的服务器。 本教程将指导你借助Cortex运行本地LLM,着重介绍其独特的功能和易用性,使任何拥有标准硬件的人都可以享用AI。 注意:Cortex目前正在积极开发中,这可能会导致bug或某些功能无法正常运行。

特斯拉得州超级计算集群命名“Cortex”,拥有 10 万颗英伟达芯片

埃隆・马斯克 (Elon Musk) 周末在参观了最近建成的得克萨斯州超级计算集群后,透露了该工厂的名称。周六,马斯克在 X 上写道,得州超级工厂的超级计算集群被命名为“Cortex”,并指出他刚刚完成了新设施的演练。“Cortex”拥有约 10 万颗英伟达 H100 和 H200 芯片,用于训练全自动驾驶(FSD)和人形机器人擎天柱(Optimus)的神经网络。AI在线注意到,马斯克此前还详细介绍了 Cortex 超级计算集群的巨大冷却需求,并解释说该集群今年将需要约 130 MW 的电力,未来 18 个月内更是

Arm新一代架构发布:CPU能效提升40%,GPU性能提升15%

对于全球 Arm 生态来说,每年不变的常数就是 Arm 新发布的「公版」架构,其设计一直在引领移动和云端计算的发展。
  • 1