月之暗面发布 Kimi k1.5 多模态思考模型,实现 SOTA 级多模态推理能力

官方表示,在 short-CoT 模式下,Kimi k1.5 的数学、代码、视觉多模态和通用能力大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%。
感谢月之暗面今日宣布推出 Kimi 全新 SOTA 模型 ——k1.5 多模态思考模型,其实现了 SOTA (state-of-the-art)级别的多模态推理和通用推理能力。

官方表示,在 short-CoT 模式下,Kimi k1.5 的数学、代码、视觉多模态和通用能力大幅超越了全球范围内短思考 SOTA 模型 GPT-4o 和 Claude 3.5 Sonnet 的水平,领先达到 550%

图片

在 long-CoT 模式下,Kimi k1.5 的数学、代码、多模态推理能力,也达到长思考 SOTA 模型 OpenAI o1 正式版的水平

图片

据介绍,k1.5 模型设计和训练存在长上下文扩展、改进的策略优化、简洁的框架、多模态能力等关键要素。该模型擅长深度推理,可以辅助“解锁更多更难的事情”,应对难解的代码问题、数学问题、工作问题。

AI在线注:k1.5 多模态思考模型的预览版将陆续灰度上线 Kimi.com 网站和最新版本的 Kimi 智能助手 App。

月之暗面发布 Kimi k1.5 多模态思考模型,实现 SOTA 级多模态推理能力

相关资讯

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

半年时间,月之暗面把 AI 模型支持的上下文长度提升了一个数量级,实现了 200 万字上下文的「无损压缩」。一个能读 200 万字的 AI 助手是什么概念?这意味着,它可以一口气读完整个《甄嬛传》剧本,然后和你讨论剧情。或者一口气读完一本厚厚的中医诊疗手册,给你提出诊疗建议。对于人类来说,成为某个领域的专家可能需要 10000 个小时的学习,但对于这个 AI 来说,只需要 10 分钟就够了。将甄嬛传全集几十万字的剧本传给 AI 助手,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。它能在不同时间段、各个场景的故事

AI在用| 又是一年毕业季,给你找了个论文搭子Kimi+

机器之能报道编辑:山茶花以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。   我们也欢迎读者投稿亲自实践的创新型用例。近日,月之暗面的 Kimi 迎来大更新,不仅 Logo 变得更卡通俏皮,还上线了「Kimi 」功能。所谓「Kimi 」,就是一个 AI 私人助理,有点类似于 OpenAI 的 GPTs,可以为用户提供更多个性化的 AI 服务,例

月之暗面发布 k0-math 数学推理模型,能力对标 OpenAI o1

基准测试显示,Kimi k0-math数学能力可对标OpenAI o1系列可公开使用的两个模型:o1-mini和o1-preview。