LLM 数学基准测试集 FrontierMath 公布:号称多数题型 AI 没学过、业界模型均败北

研究机构 Epoch AI 现公布了一款名为 FrontierMath 的全新 AI 模型数学基准测试集,旨在评估系列模型的数学推理能力。FrontierMath 的题目由人工智能学方面资深专家设计,相应问题号称不仅要求 AI 理解数学概念,还需要具备复杂情境的推理能力,以避免模型利用以前学习过的类似题目进行比对作答。研究机构表示,他们利用 FrontierMath 对当前市场上的 AI 模型进行初步测试,发现这些模型普遍表现不佳,包括此前在 GSM-8K、MATH 上取得近乎满分成绩的 Claude 3.5 和 GPT-4 等模型在 FrontierMath 中的解题成功率也均败北(成功率低于 2%)。

IT之家 11 月 15 日消息,研究机构 Epoch AI 现公布了一款名为 FrontierMath 的全新 AI 模型数学基准测试集,旨在评估系列模型的数学推理能力。

与现有诸如 GSM-8K、MATH 等测试题集不同,FrontierMath 中的数学问题号称特别复杂,收录了现代数学中的数论、代数和几何等领域,这些题目的难度据称极高,甚至人类专家解答往往需要数小时甚至数天的时间。

IT之家获悉,FrontierMath 的题目由人工智能学方面资深专家设计,相应问题号称不仅要求 AI 理解数学概念,还需要具备复杂情境的推理能力,以避免模型利用以前学习过的类似题目进行比对作答。

LLM 数学基准测试集 FrontierMath 公布:号称多数题型 AI 没学过、业界模型均败北

LLM 数学基准测试集 FrontierMath 公布:号称多数题型 AI 没学过、业界模型均败北

▲ 题库中的题型举例

研究机构表示,他们利用 FrontierMath 对当前市场上的 AI 模型进行初步测试,发现这些模型普遍表现不佳,包括此前在 GSM-8K、MATH 上取得近乎满分成绩的 Claude 3.5 和 GPT-4 等模型在 FrontierMath 中的解题成功率也均败北(成功率低于 2%)

LLM 数学基准测试集 FrontierMath 公布:号称多数题型 AI 没学过、业界模型均败北

研究团队指出,AI 在解决高级数学问题时的主要困难在于这些模型通常依赖于训练数据中学过的类似题目来生成答案,而不是对问题本身的逻辑结构进行真正的理解和推理。这意味着目前业界大部分 AI 模型只要遇到没学过的题目,就容易出错,而这一原则性的问题难以实际上无法通过“暴力增加模型规模”解决,需要研发人员从模型推理架构层面进行深入改造

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

相关资讯

专访唐杰 | 我国首个超大智能模型「悟道」发布,迎接基于模型的AI云时代

唐杰认为,超大规模预训练模型的出现,很可能改变信息产业格局,继基于数据的互联网时代、基于算力的云计算时代之后,接下来可能将进入基于模型的 AI 时代。智源研究院致力于成为这样一个时代的引领者,集聚各方资源力量,构建一个超大规模智能模型技术生态和开放平台,供北京乃至全国的研究人员、开发者和企业使用。

硬科技起飞,这家成立仅三年的AI研究院已颇具国际风范

摘要:「我认为历史上多数突破性研究成果的出现都是偶然事件,而研究机构所有努力都是为了提升这类偶然事件发生的概率。」张宏江说道。他所牵头的「创新型研究院」,即是一种积极探索,短短3年已展现一派生机。

AI可解释性及其在蚂蚁安全领域的应用简介

可解释性相关算法作为蚂蚁集团提出的“可信AI”技术架构的重要组成部分,已大量应用于蚂蚁集团安全风控的风险识别、欺诈举报审理等场景,取得了一些阶段性的成果。本系列文章,我们将以风控领域具体应用为例,尤其关注领域专家经验和机器学习方法的交互结合,介绍蚂蚁集团特征可解释、图可解释、逻辑可解释等算法方案的探索和落地。专家点评:沈超 西安交通大学教授、网络空间安全学院副院长AI可解释性是可信AI的重要组成部分,已成为人工智能领域的研究热点。可解释性有助于用户理解系统的决策逻辑并建立信任,从而进一步加快AI技术在领域中的可信应