联发科旗下研究机构联发科技研究中心(MediaTek Research)近日发布公告,展示推出了名为 MR Breeze-7B 的全新开源大说话模型(LLM)。这款开源模型长于处置繁体中文和英文,共有 70 亿个参数,以广受赞誉的 Mistral 模型为基础进行设计。与上一代产品 BLOOM-3B 比拟,MR Breeze-7B 所吸收的知识显著增加了 20 倍,让其能以更高的精确度驾驭繁体中文中错综搀杂的说话和文化细微差别。MR Breeze-7B 的处置速度超过了 Mistral 和 Llama 等同类产品。它
联发科旗下研究机构联发科技研究中心(MediaTek Research)近日发布公告,展示推出了名为 MR Breeze-7B 的全新开源大说话模型(LLM)。
这款开源模型长于处置繁体中文和英文,共有 70 亿个参数,以广受赞誉的 Mistral 模型为基础进行设计。
与上一代产品 BLOOM-3B 比拟,MR Breeze-7B 所吸收的知识显著增加了 20 倍,让其能以更高的精确度驾驭繁体中文中错综搀杂的说话和文化细微差别。
MR Breeze-7B 的处置速度超过了 Mistral 和 Llama 等同类产品。它将搀杂的繁体中文推理所需的时间和内存减少了一半,为用户提供了更无缝的体验。
与其他 7B 中英文说话模型比拟,MR Breeze-7B 能够更流畅、更准确地以两种说话迅速做出反应,并能敏锐地把握上下文,做出相关且连贯的回答。
此外,MR Breeze-7B 长于解析和生成表格内容,这对于数据驱动型任务(如分析、财务报表和搀杂的日程安排)来说是一个改变,对于处置大量结构化数据的企业来说是不可或缺的。
IT之家附上参考地址
MediaTek Research introduces Breeze-7B open-source Large Language Model