在富岳超算上训练大模型,日本联合研究团队发布 Fugaku-LLM

由多方企业和机构组成的日本联合研究团队昨日发布了 Fugaku-LLM 大模型。该模型的最大特色就是其是在 Arm 架构超算“富岳”上训练的。Fugaku-LLM 模型的开发于 2023 年 5 月启动,初期参与方包括富岳超算所有者富士通、东京工业大学、日本东北大学和日本理化学研究所(理研)。而在 2023 年 8 月,另外三家合作方 —— 名古屋大学、CyberAgent(也是游戏企业 Cygames 的母公司)和 HPC-AI 领域创企 Kotoba Technologies 也加入了该模型研发计划。▲ 富岳超

由多方企业和机构组成的日本联合研究团队昨日发布了 Fugaku-LLM 大模型。该模型的最大特色就是其是在 Arm 架构超算“富岳”上训练的。

Fugaku-LLM 模型的开发于 2023 年 5 月启动,初期参与方包括富岳超算所有者富士通、东京工业大学、日本东北大学和日本理化学研究所(理研)。

而在 2023 年 8 月,另外三家合作方 —— 名古屋大学、CyberAgent(也是游戏企业 Cygames 的母公司)和 HPC-AI 领域创企 Kotoba Technologies 也加入了该模型研发计划。

富岳超算

▲ 富岳超算。图源富士通新闻稿

在昨日发布的新闻稿中,研究团队表示其充分挖掘了富岳超算的性能,将矩阵乘法的计算速度提高了 6 倍,通信速度也提升了 3 倍,证明大型纯 CPU 超算也可用于大模型训练。

Fugaku-LLM 模型参数规模为 13B,是日本国内最大的大型语言模型。

其使用了 13824 个富岳超算节点在 3800 亿个 Token 上进行训练,其训练资料中 60% 为日语,其他 40% 包括英语、数学、代码等部分。

该模型的研究团队宣称 Fugaku-LLM 模型可在交流中自然使用日语敬语等特殊表达。

具体到测试成绩上,该模型在日语 MT-Bench 模型基准测试上的平均得分为 5.5,排在基于日本语料资源的开放模型首位,并在人文社科类别中得到了 9.18 的高分。

目前 Fugaku-LLM 模型已在 GitHub 和 Hugging Face 平台公开,外部研究人员和工程师可在遵守许可协议的前提下将该模型用于学术和商业目的。

IT之家在此附上 Fugaku-LLM 模型在 Hugging Face 平台的地址,有兴趣的小伙伴可点击进一步了解:相关链接

相关资讯

全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍

E 级超算,每秒钟百亿亿次运算,1 后面跟 18 个零。

ASC22世界超算大赛启动会举行,中国科学技术大学成为大赛东道主

ASC22总决赛将于今年5月7日-11日在位于合肥的中国科学技术大学举行。

香港面向 AI 启动财政支持计划,AI 超算中心 11 月底正式启用

据界面新闻报道,香港数码港 10 日举行 AI 资助计划简介会,并宣布 AI 超算中心将于 11 月底正式启用。据悉,香港新推出了 AI 资助计划,申请者最多可获超算中心服务定价的 7 成资助。据香港人工智能资助计划委员会主席冼汉迪介绍,该计划旨在最大限度发挥超算中心的潜力,从而支持符合条件的项目。