腾讯Hunyuan超越Llama 3,成为NLP领域新霸主

腾讯最近发布了一款名为Hunyuan的先进Moe(Mixture of Experts)模型,该模型在多个基准测试中表现出色,超越了Llama 3,成为自然语言处理(NLP)领域的新领导者。 地址如下:github: : :合成数据增强: Hunyuan-Large通过合成数据增强训练,能够学习到更丰富的表示,处理长上下文输入,并更好地泛化到未见数据。 KV缓存压缩: 采用分组查询注意力(GQA)和跨层注意力(CLA)策略,显著减少了KV缓存的内存占用和计算开销,提高了推理吞吐。

腾讯最近发布了一款名为Hunyuan的先进Moe(Mixture of Experts)模型,该模型在多个基准测试中表现出色,超越了Llama 3,成为自然语言处理(NLP)领域的新领导者。地址如下:

  • github: https://github.com/Tencent/Tencent-Hunyuan-Large/blob/main/README_CN.md
  • hf: https://huggingface.co/tencent/Tencent-Hunyuan-Large

以下是Hunyuan模型的一些关键优势:

  1. 合成数据增强: Hunyuan-Large通过合成数据增强训练,能够学习到更丰富的表示,处理长上下文输入,并更好地泛化到未见数据。
  2. KV缓存压缩: 采用分组查询注意力(GQA)和跨层注意力(CLA)策略,显著减少了KV缓存的内存占用和计算开销,提高了推理吞吐。
  3. 专家特定学习率缩放: 为不同专家设置不同的学习率,确保每个子模型都能有效地从数据中学习,并为整体性能做出贡献。
  4. 长上下文处理能力: 预训练模型支持高达256K的文本序列,Instruct模型支持128K的文本序列,显著提升了长上下文任务的处理能力。
  5. 广泛的基准测试: 在多种语言和任务上进行广泛实验,验证了Hunyuan-Large的实际应用效果和安全性。

推理框架: 

腾讯为Hunyuan-Large模型提供了vLLM-backend推理框架。该框架在vLLM开源框架的基础上进行了适配,新增的CLA结构可以节省显存,保障超长文本场景。通过FP8量化优化,相比FP16/BF16常规量化,在最大限度保障精度的条件下,节省50%显存,吞吐提升70%。

训练框架: 

Hunyuan-Large模型已经支持huggingface格式,用户可以采用hf-deepspeed框架进行模型精调。同时,腾讯也支持利用flash-attn进行训练加速,并开放了相关的训练脚本和模型实现,方便研发者进行后续的模型训练和精调。

Benchmark评估榜单: 

在多个基准测试中,Hunyuan-Large预训练模型与具有相似激活参数大小的Dense和MoE竞争对手相比,实现了最佳的整体性能。在常识理解和推理以及经典的NLP任务,如QA和阅读理解任务方面表现出色。在数学能力方面,Hunyuan-Large在GSM8K和Math数学数据集上优于所有基线,在CMATH中文数据集上也取得了最好的成绩。同时,Hunyuan-Large在所有中文任务中实现了整体最佳的性能。

Hunyuan-Large-Instruct与具有相似激活参数的llm相比在大多数的任务上实现了一致的性能提升。在不同类别的基准测试中,Instruct模型在MMLU和MATH数据集上取得了最好的性能。值得注意的是,在MMLU数据集上,表现出了显著的提升, 相比与LLama3.1-405B模型高出2.6%。这种增强表明Hunyuan-Large-Instruct在广泛的语言理解任务中具有优越的理解和推理能力。该模型在MATH数据集上的表现进一步强调了它的实力,相比于LLama3.1-405B高出了3.6%的指标。值得注意的是,仅用520亿个激活参数就实现了精度的飞跃,证明了Hunyuan-Large-Instruct的卓越能力。

图片图片

腾讯Hunyuan模型的开源,不仅展示了其在NLP领域的技术实力,也为全球的AI研究者和开发者提供了一个强大的工具,以推动NLP技术的发展。

如果对内容有什么疑问和建议可以私信和留言,也可以添加我加入大模型交流群,一起讨论大模型在创作、RAG和agent中的应用。

图片图片

相关资讯

真·ChatGPT平替:无需显卡,MacBook、树莓派就能运行LLaMA

Meta 在上个月末发布了一系列开源大模型 ——LLaMA(Large Language Model Meta AI),参数量从 70 亿到 650 亿不等。由于模型参数量较少,只需单张显卡即可运行,LLaMA 因此被称为 ChatGPT 的平替。发布以来,已有多位开发者尝试在自己的设备上运行 LLaMA 模型,并分享经验。

刚刚,Llama 3.2 来了!支持图像推理,还有可在手机上运行的版本

今天凌晨,大新闻不断。一边是 OpenAI 的高层又又又动荡了,另一边被誉为「真・Open AI」的 Meta 对 Llama 模型来了一波大更新:不仅推出了支持图像推理任务的新一代 Llama 11B 和 90B 模型,还发布了可在边缘和移动设备上的运行的轻量级模型 Llama 3.2 1B 和 3B。不仅如此,Meta 还正式发布了 Llama Stack Distribution,其可将多个 API 提供商打包在一起以便模型方便地调用各种工具或外部模型。此外,他们还发布了最新的安全保障措施。真・Open AI

抢疯了,腾讯给大模型人才,定了一个前所未有的标准

「21 世纪什么最贵?人才!」二十年前的黎叔语录,现在听来也不过时。这两年,大模型赛道风起云涌。科技公司们全力投入生成式 AI 技术的研发,期待将新的突破整合到自家产品中。OpenAI 是一个非常成功的样本,并受到了研究员、工程师和投资人们的广泛关注与深刻讨论:为什么是 OpenAI?它的成功不只来自于多年的坚持技术探索、投资者不断注入的资金,更重要的是一批顶尖 AI 研究人员的聚集。我们能看到,在 ChatGPT、Sora、GPT-4o 等划时代产品的背后,有一长串名单的核心贡献者,一家科技公司想要持续「伟大」,