华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

今天,一年一度的高考正式拉开帷幕。

随着 AI 大说话模型越来越多地表现出接近人类智能,面向人类设计的高难度、综合性考查被越来越多地引入到对说话模型的智能水平进行评测。

比如,在关于 GPT-4 的技术报告中,OpenAI 就主要通过各领域的考查对模型才智进行检验,而 GPT-4 展现出的优秀「应试才智」也是出人意料。

华文大说话模型挑战高考卷的结果如何?是否能够赶超 ChatGPT ?让我们来看看一位「考生」的答题表现。

综合 “大考”:“墨客・浦语” 多项结果抢先于 ChatGPT

近日,商汤科技、上海 AI 实验室联合香港华文大学、复旦大学及上海交通大学发布千亿级参数大说话模型 “墨客・浦语”(InternLM)。

“墨客・浦语” 具有 1040 亿参数,是在包含 1.6 万亿 token 的多语种高质量数据集上训练而成。

全面评测结果显示,“墨客・浦语” 不仅在知识掌握、阅览了解、数学推理、多语翻译等多个尝试任务上表现优秀,而且具备很强的综合才智,因而在综合性考查中表现突出,在多项华文考查中取得逾越 ChatGPT 的结果,其中就包括中国高考各个科目的数据集(GaoKao)。

“墨客・浦语” 联合团队选取了 20 余项评测对其进行检验,其中包含全球最具影响力的四个综合性考查评测集

由伯克利加州大学等高校建立的多任务考查评测集 MMLU;

微软研究院推出的学科考查评测集 AGIEval(含中国高考、司法考查及美国 SAT、LSAT、GRE 和 GMAT 等);

由上海交通大学、清华大学和爱丁堡大学合作建立的面向华文说话模型的综合性考查评测集 C-Eval;

以及由复旦大学研究团队建立的高考题目评测集 Gaokao;

实验室联合团队对 “墨客・浦语”、GLM-130B、LLaMA-65B、ChatGPT 和 GPT-4 进行了全面尝试,针对上述四个评测集的结果对比如下(满分 100 分)。

华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

“墨客・浦语” 不仅显著逾越了 GLM-130B 和 LLaMA-65B 等学术开源模型,还在 AGIEval、C-Eval,以及 Gaokao 等多个综合性考查中抢先于 ChatGPT;在以美国考查为主的 MMLU 上实现和 ChatGPT 持平。这些综合性考查的结果反映出 “墨客・浦语” 扎实的知识掌握程度和优秀的综合才智

虽然 “墨客・浦语” 在考查评测上取得优秀结果,但在测评中也可以看到,大说话模型仍然存在不少才智局限性。“墨客・浦语” 受限于 2K 的语境窗口长度(GPT-4 的语境窗口长度为 32K),在长文了解、复杂推理、撰写代码以及数理逻辑演绎等方面还存在明显局限。另外,在实际对话中,大说话模型还普遍存在幻觉、概念混淆等问题。这些局限使得大说话模型在开放场景中的使用还有很长的路要走。

四个综合性考查评测数据集结果

MMLU 是由伯克利加州大学(UC Berkeley)联合哥伦比亚大学、芝加哥大学和 UIUC 共同建立的多任务考查评测集,涵盖了初等数学、物理、化学、计算机科学、美国历史、法律、经济、外交等多个学科。

细分科目结果如下表所示。

华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

图中粗体表示结果最佳,下划线表示结果第二

AGIEval 是由微软研究院在今年新提出的学科考查评测集,主要目标是通过面向的考查来评估说话模型的才智,从而实现模型智能和人类智能的对比。

这个评测集基于中国和美国各类考查建立了 19 个评测大项,包括了中国各科高考、司法考查以及美国的 SAT、LSAT、GRE 和 GMAT 等重要考查。值得一提的是,在这 19 个大项有 9 个大项是中国高考,通常也列为一个重要的评测子集 AGIEval (GK)。

下列表格中,带 GK 的是中国高考科目。

华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

图中粗体表示结果最佳,下划线表示结果第二

C-Eval 是由上海交通大学、清华大学和爱丁堡大学合作建立的面向华文说话模型的综合性考查评测集。

它包含了 52 个科目的近 14000 道考题,涵盖数学、物理、化学、生物、历史、政治、计算机等学科考查,以及面向公务员、注册会计师、律师、医生的职业考查。

尝试结果可以通过 leaderboard 获得。

华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

https://cevalbenchmark.com/static/leaderboard.html

Gaokao 是由复旦大学研究团队建立的基于中国高考题目的综合性考查评测集,包含了中国高考的各个科目,以及选择、填空、问答等多种题型。

在 GaoKao 测评中,“墨客・浦语” 在超过 75% 的项目中均抢先 ChatGPT。 

华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

分项评测:阅览了解、推理才智表现出色

为避免 “偏科”,研究人员还通过多个学术评测集,对 “墨客・浦语” 等说话模型的分项才智进行了评测对比。

结果显示,“墨客・浦语” 不仅在中英文的阅览了解方面表现突出,并且在数学推理、编程才智等评测中也取得较好结果

华文大说话模型赶考:商汤与上海AI Lab等新发布「墨客·浦语」

知识问答方面,“墨客・浦语” 在 TriviaQA 和 NaturalQuestions 两项评测上得分为 69.8 和 27.6,均逾越 LLaMA-65B(得分为 68.2 和 23.8)。

阅览了解(英语)方面,“墨客・浦语” 明显抢先于 LLaMA-65B 和 ChatGPT。浦语在初中和高中英语阅览了解中得分为 92.7 和 88.9,ChatGPT 得分为 85.6 和 81.2,LLaMA-65B 则更低。

华文了解方面,“墨客・浦语” 结果全面逾越主要的两个华文说话模型 ERNIE-260B 和 GLM-130B。

多语翻译方面,“墨客・浦语” 在多语种互译中的平均得分为 33.9,显著逾越 LLaMA (平均得分 15.1)。

数学推理方面,“墨客・浦语” 在 GSM8K 和 MATH 这两项被广泛用于评测的数学考查中,分别取得 62.9 和 14.9 的得分,明显抢先于 Google 的 PaLM-540B(得分为 56.5 和 8.8)与 LLaMA-65B(得分为 50.9 和 10.9)。

编程才智方面,“墨客・浦语” 在 HumanEval 和 MBPP 这两项最具代表性的考评中,分别取得 28.1 和 41.4 的得分 (其中经过在代码领域的微调后,在 HumanEval 上的得分可以提升至 45.7),明显抢先于 PaLM-540B(得分为 26.2 和 36.8)与 LLaMA-65B(得分为 23.7 和 37.7)。

此外,研究人员还对 “墨客・浦语” 的安全性进行评测,在 TruthfulQA(主要评价回答的事实准确性) 以及 CrowS-Pairs(主要评价回答是否含有偏见)上,“墨客・浦语” 均达到抢先水平。

关于 “墨客・浦语” 的技术报告已在公开,报告对模型的技术特点以及尝试结果进行了详细阐述,了解更多可访问:https://github.com/InternLM/InternLM-techreport

给TA打赏
共{{data.count}}人
人已打赏
AI

我们只是好奇:各家大模型高考作文写的怎么样?

2023-6-7 14:44:00

AI

如何应对生成式大模型「双刃剑」?之江实验室发布《生成式大模型平安与隐衷白皮书》

2023-6-7 14:51:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
搜索