获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

LLM 微调不再头疼。

机器之心 2023-07-16 13:01 发表于北京

LLM 微调从一件复杂的事情,已经通过不断的技术改进变得易上手起来。

这不,收费且迅速的 LLM 微调已经可以实现了。

4 月底,斯坦福的一群开发者发布了 Lamini,号称可以为每个开发人员提供从 GPT-3 带到 ChatGPT 的超能力。

近日,Lamini 推出了全新的 Alpha 公测版,让微调上演「速度与激情」。现在只需十分钟、三至五行代码就能实现微调,更重要的是 0 费用。

目前,4 亿参数以内的 LLM 微调完全收费。这只是一个开始。

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

项目地点:https://github.com/lamini-ai/lamini

Lamini 的优势

先来一起看看 Lamini 有哪些优势。

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

收费,适用于小型 LLM;

迅速,10-15 分钟;

很大,无限大小的 prompt,比最大的 prompt 多 1000 倍以上的空间;

进修,检索增强生成,它不仅是在已知的根蒂根基上试图理解内容,还在进修新东西。

并且,在 Lamini 的项目地点中有着

1400 个问答数据集(这是关于 Lamini 的内部工程文档,你也可以将其自定义);

在此数据集上运转 LLM 微调的代码;

回答课题的开源微调 LLM(例如关于 Lamini,或其他你想问的)。

Lamini 运用教程

运用示例

Lamini 真的有这么神吗?这里由一份示例请你查收。

首先,有一个需要微调的 LLM。示例中是一个关于 Lamini 内部工程文档的问答式 LLM。

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

该模型提供了一个谈天界面,它运用了一个 410M 参数的 Pythia 模型作为根蒂根基。

这个 410M 参数 LLM 的性能看起来并不令人满意。当询问:「我如何向 Lamini 增加数据?」时,它给出的谜底并不靠谱。

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

你还可以给它输入数据。对于本例,你有一个关于 Lamini 的 1400 个课题和谜底的数据集。虽然它看起来很小,但它比目前最大的 Prompt 大小要大得多 (约 120K)。

以下是准备数据的专业建议:质量非常重要。只要 100 个高质量的例子就能让你走上准确的道路。那么什么是高质量?

高质量:连贯、清晰、准确的示例。

多样化:涵盖广泛的主题和数据范围,应避免虚伪关联和数据偏差。

真实:实际的用户数据或人为创办的示例,而不是 LLM 生成的虚伪示例,以捕捉人机交互的细微差别,并改进模型,使其超越现有的生成能力。

然后,只需将这些数据加载到模型中,并告诉它进行训练:

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

只需要 10-15 分钟,你就可以运转这个 LLM 了。

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

让我们再次问同样的课题,「我如何向 Lamini 增加数据?」,内容如下:

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

这次的谜底是准确的了,看来微调发挥了显著的效果。

如何运用 Lamini 训练 LLM

1、运用 Lamini Types 定义 LLM 接口。你想让它成为一个谈天机器人?接口就是问进答出。你想让它成为代码 copilot?接口就是程序输入,更多程序输出。运用你的类型运转一般的 LLM(基本模型或根蒂根基模型)。

2、查找相关数据并创办 Lamini Types。哪些数据对执行任务的人类专家有用?获取该数据并创办与其模式相匹配的(附加)Lamini Types。它可以是支持性文档,如你的文档中的函数,用于你的代码谈天机器人,也可以是向你的机器人提出的示例课题。

3、运用 Lamini 将数据加载到 Types 中,并将 Types 加载到 LLM 中。这将你的数据转换为 Types 格式,以便 LLM 能够最好地从中进修。

4、获取与你的 LLM 接口相匹配的数据。如果没有?也没课题。这就是数据生成的目的,其中利用 LLM 管道。首先,运用 Lamini LLM Engine 运转数据生成,以获得更多准确的 Lamini Types(任何一种)数据。然后运用 Lamini 过滤器或你自己的脚本过滤数据,以获得高质量数据。

5. 通过优化训练使通用 LLM 专业化。运用 Lamini 库,针对所有数据训练你自己的 LLM。

获星1.9k,LLM微调神器Lamini上演速度与激情,收费可用

给TA打赏
共{{data.count}}人
人已打赏
AI

字节团队提出猞猁Lynx模型:多模态LLMs理解认知生成类榜单SoTA

2023-7-15 12:46:00

AI

蛋白质侧链展望新法子DiffPack:聚集模型也能精准展望侧链构象!

2023-7-16 20:26:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索