Kimi 发布视觉思考模型 k1:试题拍照给出答题思考全过程

月之暗面 Kimi 今日发布视觉思考模型 k1。该模型基于强化学习技术打造,原生支持端到端图像理解和思维链技术,并将能力扩展到数学之外的更多基础科学领域。

月之暗面 Kimi 今日发布视觉思考模型 k1。该模型基于强化学习技术打造,原生支持端到端图像理解和思维链技术,并将能力扩展到数学之外的更多基础科学领域。

图片

月之暗面官方表示,在数学、物理、化学等基础科学学科的基准能力测试中,初代 k1 模型的表现超过了 OpenAI o1、GPT-4o 以及 Claude 3.5 Sonnet。

图片

AI在线从月之暗面官方获悉,Kimi 新模型发布即上线。k1 视觉思考模型已陆续上线最新版「Kimi 智能助手」的 Android 和 iPhone 手机 App 以及网页版 kimi.com在最新版手机 App 或网页版 Kimi+ 页面找到「Kimi 视觉思考版」,即可拍照或传图体验。

「Kimi 视觉思考版」会完整呈现推理思维链 CoT,让用户不只看到答题结果,也能完整看到模型思索答案的全过程

图片

从模型训练的角度看,k1 视觉思考模型的训练分为两个阶段,先通过预训练得到基础模型,再在基础模型上进行强化学习后训练k1 的基础模型重点优化了字符识别能力,在 OCRBench 上得到 903 分的(state-of-the-art)结果,在 MathVista-testmini、MMMU-val 和 DocVQA 基准测试集上分数分别为 69.1、66.7 和 96.9。

月之暗面表示,k1 的强化学习后训练在数据质量和学习效率方面做了进一步优化,在强化学习的规模化(scaling)上取得了新的突破。

此外,科学的模型能力基准测试方案是大模型行业面临的重要挑战之一。由于市面上缺乏针对基础科学学科的图形测试集,Kimi 模型研发团队自主构建了一个标准化的测试集 Science Vista,涵盖不同难度的数理化图片题目,且从分布上与实际用户需求较为匹配。该测试集将开放给全行业,用户可申请在许可范围内使用

在内部测试中,月之暗面也发现了一些 k1 视觉思考模型存在的局限性,例如在分布外(out-of-distribution)的泛化、在更复杂问题上的成功率、在更多噪声场景的准确率、多轮问答效果等方面,有很大提升空间。在一些场景和泛化能力上,k1 模型与 OpenAI 的 o1 系列模型相比仍有差距

相关资讯

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

半年时间,月之暗面把 AI 模型支持的上下文长度提升了一个数量级,实现了 200 万字上下文的「无损压缩」。一个能读 200 万字的 AI 助手是什么概念?这意味着,它可以一口气读完整个《甄嬛传》剧本,然后和你讨论剧情。或者一口气读完一本厚厚的中医诊疗手册,给你提出诊疗建议。对于人类来说,成为某个领域的专家可能需要 10000 个小时的学习,但对于这个 AI 来说,只需要 10 分钟就够了。将甄嬛传全集几十万字的剧本传给 AI 助手,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。它能在不同时间段、各个场景的故事

AI在用| 又是一年毕业季,给你找了个论文搭子Kimi+

机器之能报道编辑:山茶花以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。   我们也欢迎读者投稿亲自实践的创新型用例。近日,月之暗面的 Kimi 迎来大更新,不仅 Logo 变得更卡通俏皮,还上线了「Kimi 」功能。所谓「Kimi 」,就是一个 AI 私人助理,有点类似于 OpenAI 的 GPTs,可以为用户提供更多个性化的 AI 服务,例

月之暗面发布 k0-math 数学推理模型,能力对标 OpenAI o1

基准测试显示,Kimi k0-math数学能力可对标OpenAI o1系列可公开使用的两个模型:o1-mini和o1-preview。