自 ChatGPT 发布以来,庞大言语模型(LLM)已经成为推动人工智能发展的关键技术。
近期,机械进修和 AI 研究员、畅销书《Python 机械进修》作者 Sebastian Raschka 又写了一本旧书 ——《Build a Large Language Model (From Scratch)》,旨在讲授从头开始构建庞大言语模型的整个过程,包括如何创立、训练和调整庞大言语模型。
最近,Sebastian Raschka 在 GitHub 上开源了这本旧书对应的代码库。
项目地址:https://github.com/rasbt/LLMs-from-scratch/tree/main?tab=readme-ov-file
对 LLM 来说,指令微调能够有效提升模型性能,因此各种指令微调法子陆续被提出。Sebastian Raschka 发推重点介绍了项目中关于指令微调的部分,其中讲授了:
如何将数据格式化为 1100 指令 – 响应对;
如何运用 prompt-style 模板;
如何使用掩码。
《Build a Large Language Model (From Scratch)》用清晰的文字、图表和示例解释每个阶段,从最初的设计和创立,到采用通用语料库进行预训练,一直到针对特定任务进行微调。
具体来说,旧书和项目讲授了如何:
规划和编码 LLM 的所有部分;
准备适合 LLM 训练的数据集;
使用自己的数据微调 LLM;
运用指令调整法子来确保 LLM 遵循指令;
将预训练权重加载到 LLM 中。
作者介绍
个人主页:https://sebastianraschka.com/
Sebastian Raschka 是一名机械进修和人工智能研究员,曾在威斯康星大学麦迪逊分校担任统计学助理教授,专门研究深度进修和机械进修。他让关于 AI 和深度进修相关的内容更加容易获得,并教人们如何大规模利用这些技术。
此外,Sebastian 热衷于开源软件,十多年来一直是一个充满热情的开源贡献者。他提出的法子现已成功运用于 Kaggle 等机械进修竞赛。
除了编写代码,Sebastian 还喜欢写作,并撰写了畅销书《Python Machine Learning》(《Python 机械进修》)和《Machine Learning with PyTorch and ScikitLearn》。
参考链接:https://twitter.com/rasbt/status/1802327699937009807