基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

机器之心报道机器之心编辑部有研究者发现,李开复「零一万物」公司的 Yi-34B 模型基本上采用了 LLaMA 的架构,只是重命名了两个张量。对此,「零一万物」给出了官方回应。前段时间,开源大模型领域迎来了一个新的模型 —— 上下文窗口大小突破 200k,能一次处理 40 万汉字的「Yi」。这个大模型由创新工场董事长兼 CE0 李开复创立的大模型公司「零一万物」构建,包括了 Yi-6B 和 Yi-34B 两个版本。根据 Hugging Face 英文开源社区平台和 C-Eval 中文评测榜单,Yi-34B 推出时取得

机器之心报道

机器之心编辑部

有研究者发现,李开复「零一万物」公司的 Yi-34B 模型基本上采用了 LLaMA 的架构,只是重命名了两个张量。对此,「零一万物」给出了官方回应。

前段时间,开源大模型领域迎来了一个新的模型 —— 上下文窗口大小突破 200k,能一次处理 40 万汉字的「Yi」。

这个大模型由创新工场董事长兼 CE0 李开复创立的大模型公司「零一万物」构建,包括了 Yi-6B 和 Yi-34B 两个版本。

根据 Hugging Face 英文开源社区平台和 C-Eval 中文评测榜单,Yi-34B 推出时取得了多项 SOTA 国际最佳性能指标认可,成为全球开源大模型「双料冠军」,击败了 LLaMA2 和 Falcon 等开源竞品。

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

Yi-34B 也成为当时唯一成功登顶 Hugging Face 全球开源模型排行榜的国产模型,称「全球最强开源模型」。

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

该模型在发布后引起了国内外很多研究者、开发者的关注。

但最近,有研究者发现,Yi-34B 模型基本上采用了 LLaMA 的架构,只是重命名了两个张量。

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

原贴链接:https://news.ycombinator.com/item?id=38258015

帖子还指出:

Yi-34B 的代码实际上是对 LLaMA 代码的一次重构,但看似并未作出任何实质性改变。这个模型明显是基于原始 Apache 2.0 版的 LLaMA 文件进行的编辑,但却未提及 LLaMA:   

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

Yi vs LLaMA 代码对比。代码链接:https://www.diffchecker.com/bJTqkvmQ/

此外,这些代码更改并没有通过 Pull Request 的方式提交到 transformers 项目中,而是以外部代码的形式附加上去,这可能存在安全风险或不被框架所支持。HuggingFace 排行榜甚至不会对这个上下文窗口最高可达 200K 的模型进行基准测试,因为它没有自定义代码策略。

他们声称这是 32K 模型,但它被配置为 4K 模型,没有 RoPE 伸缩配置,也没有解释如何伸缩(注:零一万物之前表示模型本身在 4K 的序列上进行训练,但是在推理阶段可以扩展到 32K)。目前,关于其微调数据的信息为零。他们也没有提供复现他们的基准测试的说明,包括可疑的 MMLU 高分。

任何一个在 AI 领域工作过一段时间的人都不会对此视而不见。这是虚假宣传?违反许可证规定?实际基准作弊?谁在乎呢?换下一篇论文,或者在这种情况下,拿走所有风险投资的钱。Yi 至少高于标准,因为它是基础模型,而且性能确实不错。

而在数天前,在零一万物 Huggingface 社区中,有开发者同样指出:

据我们了解,除了两个张量被重命名之外,Yi 完全使用了 LLaMA 的架构。(input_layernorm, post_attention_layernorm)

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

讨论中,有网友表示:如果他们确切使用 Meta LLaMA 架构、代码库和所有相关资源,则需要遵守 LLaMA 规定的许可协议。

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

为了符合 LLaMA 的开源协议,有位开发者将其名字改回并重新放到了 huggingface 上:

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了01-ai/Yi-34B,张量已重命名以匹配标准 LLaMA 模型代码。相关链接:https://huggingface.co/chargoddard/Yi-34B-LLaMA

看到这里,我们也就知道前几天,从阿里离职创业的贾扬清在朋友圈提到的是哪家企业了。

基于LLaMA却改张量名,李开复公司大模型开源行为引争议,官方回应来了

针对此事,机器之心也向零一万物进行了求证。零一万物回应称:

GPT 是一个业内公认的成熟架构,LLaMA 在 GPT 上做了总结。零一万物研发大模型的结构设计基于 GPT 成熟结构,借鉴了行业顶尖水平的公开成果,同时基于零一万物团队对模型和训练的理解做了大量工作,这是我们首次发布获得优秀结果的地基之一。与此同时,零一万物也在持续探索模型结构层面本质上的突破。

模型结构仅是模型训练其中一部分。Yi 开源模型在其他方面的精力,比如数据工程、训练方法、baby sitting(训练过程监测)的技巧、hyperparameter 设置、评估方法以及对评估指标的本质理解深度、对模型泛化能力的原理的研究深度、行业顶尖的 AI Infra 能力等,投入了大量研发和打底工作,这些工作往往比起基本结构能起到更大的作用跟价值,这些也是零一万物在大模型预训练阶段的核心技术护城河。

在大量训练实验过程中,由于实验执行需求对代码做了更名,我们尊重开源社区的反馈,将代码进行更新,也更好的融入 Transformer 生态。

我们非常感谢社区的反馈,我们在开源社区刚刚起步,希望和大家携手共创社区繁荣,Yi Open-source 会尽最大努力持续进步。

相关资讯

零一万物 API 上线,用户反馈多模态中文能力超过 GPT-4V

零一万物由创新工场董事长兼首席执行官李开复创办于 2023 年 6 月,六个月后,零一万物便成功发布了 Yi 系列模型,包含 6B 和 34B 两个版本,并开源,打破了当时国产开源模型一直难以超过 14B 的现状。 34B也是黄金尺寸的模型,既达到了大模型“涌现”能力的门槛,同时也能在消费级显卡上训练,对开发者相对友好。 此后较长一段时间 Yi-34B 在 Hugging Face 英文开源社区平台跻身前列,一举打响了零一万物的模型名声。

对话零一万物:大模型产品要找到 TC-PMF

上次零一万物(以下简称“零一”)开发布会还是在 2023 年 11 月,宣布成立后的模型首秀:发布中英双语大模型“Yi”,并将其开源。 这一次,时隔半年,零一不仅将基座模型卷到千亿量级,甚至还直接拿出一款 C 端新品“万知”,零一万物创始人李开复称其为“AI-First 版 office”。 在模型层,零一发布了千亿参数的 Yi-Large 闭源模型,在第三方评测基准斯坦福大学的英语排行 AlpacaEval 2.0上,Yi-Large 可与 GPT-4 比肩(如下图所示);并全面升级了开源模型系列 Yi-1.5,分为 34B、9B、6B三个版本,且提供了 Yi-1.5-Chat 微调模型可供开发者选择。

李开复:目前最好的大模型智能已达人类平均智力水平三倍

感谢据新浪科技报道,今日举行的 2024 澜舟科技大模型技术和产品发布会期间,澜舟科技宣布与创新工场董事长李开复创立的零一万物达成战略合作。创新工场董事长、零一万物 CEO 李开复在今天的活动中表示,大模型的智力水平在两年前就已经比普通人水平“好一点”,而在目前,世界上最好的大模型已经是人类平均智力水平的三倍。李开复以“答题”举例,即在 100 道考题里,普通人平均只能答对 33 题,而“最好的 AI 大模型”可答对 99 道以上。李开复称从应用角度来看,“杀手级”应用早已问世。“至少在美国我们可以看到,AI 应用