10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

能带来完全不同的大模型感受。我们知道,大模型到 GPT-3.5 这种千亿体量以后,训练和推理的算力就不是普通创业公司所能承担的了,人们用起来速率也会很慢。但自本周起,这种观念已成为历史。有名为 Groq 的初创公司开发出一种机器学习处理器,据称在大语言模型任务上彻底击败了 GPU—— 比英伟达的 GPU 快 10 倍,而成本仅为 GPU 的 10%,只需要十分之一的电力。这是在 Groq 上运转 Llama 2 的速率:                             来源: Groq(Llama 2)和

能带来完全不同的大模型感受。

我们知道,大模型到 GPT-3.5 这种千亿体量以后,训练和推理的算力就不是普通创业公司所能承担的了,人们用起来速率也会很慢。

但自本周起,这种观念已成为历史。

有名为 Groq 的初创公司开发出一种机器学习处理器,据称在大语言模型任务上彻底击败了 GPU—— 比英伟达的 GPU 快 10 倍,而成本仅为 GPU 的 10%,只需要十分之一的电力。

这是在 Groq 上运转 Llama 2 的速率:

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队                             来源:https://twitter.com/emollick/status/1759633391098732967

这是 Groq(Llama 2)和 ChatGPT 面对同一个 prompt 的表现:

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队                             图源:https://x.com/JayScambler/status/1759372542530261154?s=20

尽管看起来不可思议,但事实就是如此,感兴趣的朋友不妨一试。

目前,Groq 的官网供给了试用感受,有这些模型可选:

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

官网地址:https://groq.com/

Groq 的处理器名为 LPU(语言处理单元),是一种新型的端到端处理单元系统,可以为具备序列组件的估计密集型应用(比如 LLM)供给极快的推理速率。

它带动的大模型速率能达到前所未有的 500 Token/s,并且实现了极低的延缓。

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

用硬件加速软件,总能给人一种力大砖飞的感觉。Groq 还在 LPU 上运转了最新锐的开源模型 Mixtral,模型在不到一秒的时间内回复了包含数百个单词的事实性的、引用的答案(其中四分之三的时间是用来搜索):

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

Groq 放出的 Demo 视频下,有人评论道:这也太快了,不该这么快。

有网友因此提出建议:因为大模型生成内容的速率太快,所以从用户感受的角度来看不应该再自动翻页了,因为人眼看不过来。10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

或许在 LPU 的加持下,生成式 AI 真的要如同 Gartner 最近预测所言:在两年内对搜索引擎构成巨大威胁了。仔细一想也确实合理,毕竟当年神经网络就是被 GPU 算力的发展带飞的。

至于为什么这么快?

有人分析,GPU 专为具有数百个核心的并行处理而安排,主要用于图形渲染,而 LPU 的架构旨在为 AI 估计供给确定性的功能。

LPU 的架构不同于 GPU 使用的 SIMD(单指令、多数据)模型,而是采用更精简的方法,消除了对复杂调度硬件的需求。这种安排允许有效利用每个时钟周期,确保一致的延缓和吞吐量。

能源效率是 LPU 相对于 GPU 的另一个值得注意的优势。通过减少与管理多个线程相关的开销并避免核心利用率不足,LPU 可以供给更多的每瓦估计量,将其定位为更环保的替代方案。

Groq 的芯片安排允许将多个 TSP 连接在一起,不会出现 GPU 集群中的传统瓶颈,使其具有极高的可扩展性。随着更多 LPU 的添加,这可以实现功能的线性扩展,从而简化大规模 AI 模型的硬件要求,并使开发人员更轻松地扩展其应用程序,而无需重新架构其系统。 

在 A100 和 H100 相对紧缺的时代,LPU 或许会成为大模型开发商的新选择。

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

Groq 成立于 2016 年,这家公司的创始团队出自google,曾安排了google自研 AI 芯片张量处理单元 TPU 系列。据官网介绍,Groq 公司创始人、首席执行官 Jonathan Ross 曾承担了 TPU 的 20% 工作。

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队                                                         Jonathan Ross。

在去年的高功能估计会议 SC23 上,Groq 就展示过在 LPU 上运转 LLM 的全球最佳低延缓功能。当时,Groq 能够以每秒超过 280 个 Token 的速率生成回复,刷新了 Llama-2 70B 推理的功能记录。

今年 1 月,Groq 首次参与公开基准测试,就在 Anyscale 的 LLMPerf 排行榜上取得了突出的成绩,远超其他基于云的推理供给商。

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队                              图源:https://github.com/ray-project/llmperf-leaderboard?tab=readme-ov-file

人工智能已经在科技界掀起了一场风暴。2023 年可能是世界意识到人工智能将成为现实的一年,而 2024 年则是人工智能真正成为现实而不仅仅是假设的一年。这是 Jonathan Ross 曾表达的一个观点。

当我们拥有 100 万 Token 上下文的 Gemini Pro 1.5、每秒 500 Token 推理速率的 Groq、推理能力更进一步的 GPT-5,梦想还会远吗?

10倍英伟达GPU:大模型专用芯片一夜成名,来自googleTPU创业团队

参考内容:

https://blocksandfiles.com/2024/01/23/grokking-groqs-groqness/

https://siliconangle.com/2024/01/18/ai-leaders-discuss-state-ai-implemented-enterprise-cescoverage-cubeconversations/

给TA打赏
共{{data.count}}人
人已打赏
应用

在Sora引爆视频生成时,Meta开始用Agent自动剪视频了,华人作者主导

2024-2-20 14:47:00

应用

更乱了!已经有真人视频假意Sora了,威尔·史密斯吃意大利面玩梗

2024-2-20 15:13:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索