26 年前的古董 Win98 电脑成功运行大语言模型:搭载奔腾 II 处理器、128MB 内存

一个名为 EXO Labs 的组织今日在社交媒体上发布了一段视频,展示了一台运行 Windows 98 系统的 26 年高龄的奔腾 II 电脑(128MB 内存)成功运行大型语言模型(LLM)的情形。随后,EXO Labs 在其博客上发表了一篇详细文章,进一步阐述了这个项目的细节,以及其“普及人工智能”的愿景。

一个名为 EXO Labs 的组织今日在社交媒体上发布了一段视频,展示了一台运行 Windows 98 系统的 26 年高龄的奔腾 II 电脑(128MB 内存)成功运行大型语言模型(LLM)的情形。随后,EXO Labs 在其博客上发表了一篇详细文章,进一步阐述了这个项目的细节,以及其“普及人工智能”的愿景。

26 年前的古董 Win98 电脑成功运行大语言模型:搭载奔腾 II 处理器、128MB 内存

AI在线注意到,视频中一台 350MHz 的 Elonex 奔腾 II 电脑启动 Windows 98 后,EXO Labs 运行了基于 Andrej Karpathy 的 Llama2.c 开发的定制纯 C 推理引擎,并让 LLM 生成了一个关于“Sleepy Joe”的故事。令人惊讶的是,整个过程运行流畅,故事生成速度也相当可观。

EXO Labs 由牛津大学的研究人员和工程师组成,于今年 9 月正式对外亮相,其使命是“普及人工智能”。该组织认为,少数大型企业控制人工智能会对文化、真相以及社会其他基本方面造成负面影响。因此,EXO Labs 希望“构建开放的基础设施,以训练前沿模型,并使任何人都能在任何地方运行它们”,从而让普通人也能在几乎任何设备上训练和运行 AI 模型。此次在 Windows 98 上运行 LLM 的壮举,正是对这一理念的有力证明。

根据 EXO Labs 的博客文章,他们从 eBay 上购得了一台老式 Windows 98 电脑。然而,将数据传输到这台老机器上却是一个挑战,他们最终通过其以太网端口使用“古老的 FTP”完成了文件传输。

更大的挑战在于为 Windows 98 编译现代代码,幸运的是他们找到了 Andrej Karpathy 的 llama2.c,这是一个“用 700 行纯 C 代码即可在 Llama 2 架构的模型上运行推理”的工具。借助这一资源以及老式的 Borland C++ 5.02 IDE 和编译器(以及一些小的调整),EXO Labs 成功将代码编译成可在 Windows 98 上运行的可执行文件。他们还在 GitHub 上公开了最终代码。

EXO Labs 的 Alex Cheema 特别感谢了 Andrej Karpathy 的代码,并对其性能赞叹不已,称其在使用基于 Llama 架构的 26 万参数 LLM 时,在 Windows 98 上实现了“每秒 35.9 个 token”的生成速度。值得一提的是,Karpathy 曾任特斯拉人工智能主管,也是 OpenAI 的创始团队成员之一。

虽然 26 万参数的 LLM 规模较小,但在这台古老的 350MHz 单核电脑上运行速度相当不错。根据 EXO Labs 的博客,使用 1500 万参数的 LLM 时,生成速度略高于每秒 1 个 token。而使用 Llama 3.2 10 亿参数模型时,速度则非常缓慢,仅为每秒 0.0093 个 token。

EXO Labs 的目标远不止于在 Windows 98 机器上运行 LLM。他们在博客文章中进一步阐述了其对未来的展望,并希望通过 BitNet 实现人工智能的普及。

据介绍,“BitNet 是一种使用三元权重的 transformer 架构”,使用这种架构,一个 70 亿参数的模型只需要 1.38GB 的存储空间。这对于一台 26 年前的奔腾 II 来说可能仍然有些吃力,但对于现代硬件甚至十年前的设备来说,都非常轻量级的。

EXO Labs 还强调,BitNet 是“CPU 优先”的,避免了对昂贵 GPU 的依赖。此外,据称这种类型的模型比全精度模型效率高 50%,并且可以在单个 CPU 上以人类阅读速度(约每秒 5 到 7 个 token)运行一个 1000 亿参数的模型。

相关资讯

AI Agent智能代理如何快速变现

AI Agent,即人工智能代理,是一种能够感知环境、进行自主理解、决策和执行动作的智能实体。 它基于大语言模型,能够通过独立思考、调用工具来逐步完成给定目标的计算机程序。 AI Agent的核心在于其自主性和自适应性,在特定任务或领域中能够自主地进行学习和改进。

DeepSeek-V3深入解读!

上一篇文章对DeepSeek-R1进行了详细的介绍,今天来看看DeepSeek-R1的基座模型DeepSeek-V3。 项目地址::现有的开源模型在性能和训练成本之间往往难以达到理想的平衡。 一方面,为了提升模型性能,需要增加模型规模和训练数据量,这会导致训练成本急剧上升;另一方面,高效的训练和推理架构对于降低计算资源消耗至关重要。

Seed Research | 形式化数学推理新SOTA!BFS-Prover模型最新开源

近日,豆包大模型团队提出 BFS-Prover,一个基于大语言模型 (LLM) 和最优先树搜索 (BFS) 的高效自动形式化定理证明系统。 团队通过该成果发现,简单的 BFS 方法经过系统优化后,可在大规模定理证明任务中展现卓越性能与效率,无需复杂的蒙特卡洛树搜索和价值函数。 在数学定理证明基准 MiniF2F 测试集上,BFS-Prover 取得了 72.95% 准确率,超越此前所有方法。