《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

自 ChatGPT 发布以来,大型语言模型(LLM)已经成为推动人工智能发展的关键技术。近期,机器学习和 AI 研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又写了一本新书 ——《Build a Large Language Model (From Scratch)》,旨在讲解从头开始构建大型语言模型的整个过程,包括如何创建、训练和调整大型语言模型。最近,Sebastian Raschka 在 GitHub 上开源了这本新书对应的代码库。项目地址: LLM 来说,指令微调能够有效

自 ChatGPT 发布以来,大型语言模型(LLM)已经成为推动人工智能发展的关键技术。

近期,机器学习和 AI 研究员、畅销书《Python 机器学习》作者 Sebastian Raschka 又写了一本新书 ——《Build a Large Language Model (From Scratch)》,旨在讲解从头开始构建大型语言模型的整个过程,包括如何创建、训练和调整大型语言模型。《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

最近,Sebastian Raschka 在 GitHub 上开源了这本新书对应的代码库。

《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

项目地址:https://github.com/rasbt/LLMs-from-scratch/tree/main?tab=readme-ov-file

对 LLM 来说,指令微调能够有效提升模型性能,因此各种指令微调方法陆续被提出。Sebastian Raschka 发推重点介绍了项目中关于指令微调的部分,其中讲解了:

如何将数据格式化为 1100 指令 - 响应对;

如何应用 prompt-style 模板;

如何使用掩码。

《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

《Build a Large Language Model (From Scratch)》用清晰的文字、图表和示例解释每个阶段,从最初的设计和创建,到采用通用语料库进行预训练,一直到针对特定任务进行微调。

《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

具体来说,新书和项目讲解了如何:

规划和编码 LLM 的所有部分;

准备适合 LLM 训练的数据集;

使用自己的数据微调 LLM;

应用指令调整方法来确保 LLM 遵循指令;

将预训练权重加载到 LLM 中。

作者介绍

《Python 机器学习》作者新作:从头开始构建大型语言模型,代码已开源

个人主页:https://sebastianraschka.com/

Sebastian Raschka 是一名机器学习和人工智能研究员,曾在威斯康星大学麦迪逊分校担任统计学助理教授,专门研究深度学习和机器学习。他让关于 AI 和深度学习相关的内容更加容易获得,并教人们如何大规模利用这些技术。

此外,Sebastian 热衷于开源软件,十多年来一直是一个充满热情的开源贡献者。他提出的方法现已成功应用于 Kaggle 等机器学习竞赛。

除了编写代码,Sebastian 还喜欢写作,并撰写了畅销书《Python Machine Learning》(《Python 机器学习》)和《Machine Learning with PyTorch and ScikitLearn》。

参考链接:https://twitter.com/rasbt/status/1802327699937009807

相关资讯

模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向

还有 10 个月,2024 年还有很多期待空间。在过去的 2023 年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望 2024 年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。现在,2024 年的第一个月已经过去,也许是时候盘点一番新年首月进展了。近日,AI 研究者 Sebastian Raschka 发布了一份报告,介绍了四篇与上述新阶段有关的重要论文。它们的研究主题简单总结起来是这样:1. 权重平均和模型融合可将多个 LLM

开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?

深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mixtral、Meta AI 的 Llama 3、微软的 Phi-3 和苹果的 OpenELM。他还通过一篇论文探讨了 DPO 和 PPO 的优劣之处。之后,他分享了 4 月份值得关注的一些研究成果。Mixtral、Llama 3 和 Phi-3:有什么新东西?首先,从

让 AI 模型互相教学,谷歌推出社会学习框架

谷歌近日公开了一项名为“社会学习(Social Learning)”的 AI 框架,该框架允许 AI 语言模型能够通过自然语言互相学习,由于不需要直接交换敏感关键信息,因此训练出的 AI 模型更具隐私保护性。据介绍,在这款“社会学习框架”中,“学生模型”会向多个已知特定任务解法的“教师模型”学习各种问题的解决方案,研究人员设计了“垃圾短信检测”、“解决小学数学问题”、“根据特定文字回答问题”等多项测试,来评估相关“社会学习”框架的成效。研究人员表示,部分 AI 模型只经过短暂的“社会学习”框架训练,便能够能获得良好