B站开源轻量级 Index-1.9B 系列模型:2.8T 训练数据,支持角色扮演

B站昨日开源了轻量级 Index-1.9B 系列模型,包含基座模型、对照组、对话模型、角色扮演模型等多个版本。IT之家附官方简介:Index-1.9B base : 基座模型,具有 19 亿非词嵌入参数量,在 2.8T 中英文为主的语料上预训练,多个评测基准上与同级别模型比处于领先。Index-1.9B pure : 基座模型的对照组,与 base 具有相同的参数和训练策略,不同之处在于严格过滤了该版本语料中所有指令相关的数据,以此来验证指令对 benchmark 的影响。Index-1.9B chat :基于 i

B站昨日开源了轻量级 Index-1.9B 系列模型,包含基座模型、对照组、对话模型、角色扮演模型等多个版本。

IT之家附官方简介:

Index-1.9B base : 基座模型,具有 19 亿非词嵌入参数量,在 2.8T 中英文为主的语料上预训练,多个评测基准上与同级别模型比处于领先。

Index-1.9B pure : 基座模型的对照组,与 base 具有相同的参数和训练策略,不同之处在于严格过滤了该版本语料中所有指令相关的数据,以此来验证指令对 benchmark 的影响。

Index-1.9B chat :基于 index-1.9B base 通过 SFT 和 DPO 对齐后的对话模型,由于预训练中引入了较多互联网社区语料,聊天的趣味性明显更强。

Index-1.9B character :在 SFT 和 DPO 的基础上引入了 RAG 来实现 fewshots 角色扮演定制。

B站开源轻量级 Index-1.9B 系列模型:2.8T 训练数据,支持角色扮演

B站开源轻量级 Index-1.9B 系列模型:2.8T 训练数据,支持角色扮演

据介绍,该模型在预训练阶段使用了 2.8T 规模的数据,中英比例为 4:5,代码占比 6%。目前,角色扮演模型内置了角色“三三”,用户也可以按需创建自己的角色。

项目地址:https://github.com/bilibili/Index-1.9B/blob/main/README.md

相关资讯

探索大语言模型垂直化训练技术和应用-陈运文

内容来源:ChatGPT 及大模型专题研讨会 分享嘉宾:达观数据董事长兼CEO 陈运文博士分享主题:《探索大语言模型垂直化训练技术和应用》 转载自CSDN稿件本文整理自 3月11日 《ChatGPT 及大规模专题研讨会》上,达观数据董事长兼CEO 陈运文博士关于《探索大语言模型垂直化训练技术和应用》的分享,将介绍达观数据在大语言模型应用中的探索与思考。此次分享的主要内容分为 6 块,分别是:参数规模和数据规模的探索垂直领域适应预训练微调技术探索提示工程和垂直优化模型训练加速思路模型功能的垂直效能增强在探索大语言模型

B站亮相 2024 世界人工智能大会,首次展出自研大语言模型

在 2024 世界人工智能大会(WAIC 2024)上,哔哩哔哩(以下简称“B站”)公布了多项自主研发的 AI 技术成果和 AIGC 多元创意,包括最新定制的 AI 语音声库、自研音视频大模型必剪 Studio 以及自研 AI 动态漫技术等。此外,B站自研的大语言模型系列也在此次 WAIC 2024 大会上首次展出,包括开源的 Index-1.9B chat 和 Index-1.9B character 两个模型。IT之家查询 GitHub 获悉,Index-1.9B 系列模型于 6 月开源,包含基座模型、对照组、

S-LoRA:一个GPU运行数千大模型成为可能

一般来说,大语言模型的部署都会采用「预训练 — 然后微调」的模式。但是,当针对众多任务(如个性化助手)对 base 模型进行微调时,训练和服务成本会变得非常高昂。低秩适配(LowRank Adaptation,LoRA)是一种参数效率高的微调方法,通常用于将 base 模型适配到多种任务中,从而产生了大量从一个 base 模型衍生出来的 LoRA 适配程序。这种模式为服务过程中的批量推理提供了大量机会。LoRA 的研究表明了一点,只对适配器权重进行微调,就能获得与全权重微调相当的性能。虽然这种方法可以实现单个适配器