国内此前开源了多个 70 到 130 亿参 数大模型,落地成果涌现,开源生态系统初步建立。随着智能体等任务复杂性与数据量的提高,业界与社区对更「大」模型的需求愈发迫切。
研究表明,参数量越高,高质量训练数据越多,大模型本能才能不断提高。而业界普遍共识是达到 500 到 600 亿参数门槛,大模型才能「智能涌现」,在多任务中展现强大本能。但训练此量级模型成本高昂,手艺要求较高,目前主要为闭源付费提供。
在国外开源生态中,Llama2-70B 和 Falcon-180B 等标杆模型为有条件开源,设置了月活跃用户数或收入等商用上限,并因缺乏训练数据在中文本领上有明显短板。此外,美国新近颁布的 AI 芯片禁令,或将进一步限制中国大模型产业发展的速度。业界迫切呼吁一个高本能国产大模型,填补生态空白, 为中文运用提供更强大的理解、推理和长文生成本领。
在此背景下,元象 XVERSE 公司宣布开源 650 亿参数高本能通用大模型 XVERSE-65B,并且无条件免费商用,业界尚属首次。此外,13B 模型片面升级,提高小模型本领上限。这将让海量中小企业、研究者和 AI 开发者更早一步实现大模型自由,根据其算力、资源限制和具体任务需求,自由使用、修改或蒸馏元象大模型,鞭策研究与运用的突破创新。
模型地址:https://huggingface.co/xverse/XVERSE-65B
元象 XVERSE 创始人姚星表示:「面对研发时间紧、算力连续短缺等挑战,团队依靠丰富经验,三个月内研发出多款高本能 7B、13B 模型,并最早为社区献上一个大有可为的 65B 模型,为研究、商业及生态创造三重价值。」
具体而言,65B 模型能够有以下积极影响:
研发上,65B 将为新手艺、新工具、本能优化到模型安全提供「大杠杆」,让社区快速累积经验,也有助于鞭策国家科技自主可控的长远目标。
商业上,海量中小企业能以零成本用上「大工具」,可突破局限,鞭策运用显著创新。元象也能深入了解用例、安全模型部署和潜在机会。
在开发者生态上,社区能充分发挥组织共同优势,鞭策研发运用的「寒武纪大爆发」。
开源可免费商用大模型图谱
全链条自研,多项手艺创新
XVERSE-65B 底座模型在 2.6 万亿 Tokens 的高质量数据上从头训练,上下文窗口扩展至 16K,支持中、英、俄、法等 40 多种语言。
元象坚持高本能定位,显著提高了 65B 三方面本领:
理解、生成、推理和记忆等基础本领,到模型的多样性、创造性和精度表现,从优异到强大;
扩展了工具调用、代码解释、反思修正等本领,为构建智能体奠定手艺基础,提高模型实用性;
显著缓解 7B、13B 中常见且可能很严重的幻觉问题,减少大模型幻觉,提高准确性和专业度。
元象大模型系列均为全链条自研,涵盖多项关键手艺与研发创新:
1. 复杂分布式系统设计:借鉴团队研发腾讯围棋 AI「绝艺」、王者荣耀 AI「绝悟」等大系统上的丰富经验,自研高效算子、显存优化、并行调度策略、数据-计算-通信重叠、平台与框架共同等关键手艺,打造高效稳定的训练系统, 千卡集群峰值算力利用率达 58.5%,位居业界前列。
2. 片面提高本能:65B 训练中采用 FlashAttention2 加速计算, 3D 并行基础上采用虚拟流水线(virtual pipeline)手艺,降低较长流水线产生过高气泡率,提高计算推理效率;上下文窗口长度从 8K 逐步提高到 16K,使其不仅能出色完成复杂任务,包括长文理解、长文生成和超长对话,还拓展了工具调用、代码解释及反思修正本领,能更好构建智能体(AI Agent)。
3. 极致提高训练稳定性:因计算量庞大,通信拥塞、芯片过热或计算节点故障成为 65B 训练常态,初期出现过一周最高八次故障的情况。通过集群基础设施运营、资源调度、训练框架和调度平台共同等连续优化,元象打造出高稳定、低中断、强容错的训练系统,将每周有效训练率提高至 98.6%。
此外,在接近 1.6 万亿 Tokens 的模型训练中期,损失函数产生了 NaN 值,可能导致训练中断。通常情况下,业界一般会在分析后删除与之相关的数据区间。而团队根据经验判定这是模型自然演化,选择不删除数据,直接跳过相关参数更新,最终 NaN 值问题解决。后期对参数值、激活值、梯度值等中间状态的进一步分析表明,该问题可能 与模型最后一层 transformer block 激活值的最大值变化有关,并会随最大值的逐渐降低而自行解决。
解决 NaN 值问题研发经验
片面测评 65B 本能媲美 GPT3.5
为确保业界能对元象大模型本能有片面、客观、长期认知,研究人员参考了一系列权威学术测评,制定了涵盖问答、理解、知识、推理、数学、代码等六个维度的 11 项主流权威测评标准,将连续使用并迭代。
XVERSE-65B 在 国内尚无同量级模型可对比,在与国外标杆对比测评中,部分指标超越、综合本能媲美 GPT3.5;片面超越开源标杆 Llama2-70B 和 Falcon-180B ;与 GPT4 仍有差距。
XVERSE-65B 评测
片面升级的 XVERSE-13B-2,比同尺寸模型增加大量高质量数据,训练数据高达 3.2 万亿, 极大提高了小模型的本领上限。它文理兼修,保持了文科优势,问答提高 18%,理科长足进步, 代码提高 149%、数学提高 198%,在测评中片面超越了 Llama2、Baichuan2 等国内外开源标杆。
升级版 XVERSE-13B-2 测评
开启大模型运用新时代
元象大模型可在 Github、Hugging Face、魔搭 ModelScope 等多平台搜索「XVERSE」下载,简单登记后即可无条件免费商用,能满足中小企业、科研机构和个人开发者绝大部分的运用与迭代需求。
元象同时提供模型训练、推理、部署、精调等全方位手艺服务,赋能文娱、金融、医疗等各行各业,帮助在智能客服、创意写作、精准推荐等多场景打造行业领先的用户体验。2023 年 10 月,腾讯音乐率先宣布与元象大模型建立战略合作,共同推出 lyraXVERSE 加速大模型、片面升级其音乐助手「AI 小琴」,未来还将连续探索 AI 与 3D 前沿手艺,引领音乐娱乐创新方向。
姚星表示:「真实世界的感知智能(3D),与真实世界的认知智能(AI),是探索通用人工智能(AGI)的必由之路,也是元象连续探索前沿科技的动力。XVERSE 开源系列致力于鞭策大模型国产可替代与连续手艺创新,为实体经济、数字经济发展注入强劲动力。我们期待与企业和开发者携手,共同开启大模型运用新时代!」
关于元象
元象 XVERSE 于 2021 年初在深圳成立,是国内领先的 AI 与 3D 手艺服务公司,致力于打造 AI 驱动的 3D 内容生产与消费一站式平台,愿景为「定义你的世界」。
官方网站:www.XVERSE.cn
元象累计融资金额超过 2 亿美元。元象创始人姚星是前腾讯副总裁和腾讯 AI Lab 创始人、国家科技部新一代人工智能战略咨询委员会成员。
在 3D 与 AI 手艺领域,元象拥有深厚积累与完整布局。在 3D 领域,已自主研发出行业引领性的「端云共同」3D 互动手艺,开创零门槛(轻)、一站式(快)、高品质(美)全新 3D 体验;在 AI 领域,开源中国最大参数可商用大模型 XVERSE-65B,旨在鞭策大模型国产可替代与行业运用发展。