月之暗面 Kimi 联合清华大学等开源大模型推理架构 Mooncake

本次开源将采用分阶段的方式,逐步开源高性能 KVCache 多级缓存 Mooncake Store 的实现,同时针对各类推理引擎和底层存储 / 传输资源进行兼容。
感谢月之暗面 Kimi 和清华大学 MADSys 实验室 2024 年 6 月联合发布了 Kimi 底层的 Mooncake 推理系统设计方案。该系统基于以 KVCache 为中心的 PD 分离和以存换算架构,提升了推理吞吐量

图片

近日,为了进一步加速该技术框架的应用与推广,月之暗面 Kimi 和清华大学 MADSys 实验室联合 9#AISoft、阿里云、华为存储、面壁智能、趋境科技等共同发布开源项目 Mooncake,共建以 KVCache 为中心的大模型推理架构。

11 月 28 日,Mooncake 技术框架已开源上线,AI在线附地址如下:

https://github.com/kvcache-ai/Mooncake

月之暗面 Kimi 联合清华大学等开源大模型推理架构 Mooncake

据介绍,Mooncake 开源项目从论文延伸,以超大规模 KVCache 缓存池为中心,通过以存换算的创新理念大幅度减少算力开销,提升了推理吞吐量。

本次开源将采用分阶段的方式,逐步开源高性能 KVCache 多级缓存 Mooncake Store 的实现,同时针对各类推理引擎和底层存储 / 传输资源进行兼容。其中传输引擎 Transfer Engine 部分现在已经在 GitHub 全球开源。

Mooncake 开源项目的最终目标是,为大模型时代打造一种新型高性能内存语义存储的标准接口,并提供参考实现方案。

Mooncake 推理系统架构图

Mooncake 推理系统架构图

相关资讯

ACL 2024 | 让纯LLM实现类人的符号逻辑推理能力,开源框架SymbCoT来了

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:[email protected][email protected]徐俊东,本文第一作者。本科毕业于伦敦大学学院(UCL),硕士就读于新加坡国立大学(NUS)计算机系。主要研究方向为大语言模型的推理能力。个人主页:(LLMs)实现严谨可信的推理,新国立提出

一口气读完甄嬛传剧本、大部头医书:月之暗面200万字上下文Kimi开启内测

半年时间,月之暗面把 AI 模型支持的上下文长度提升了一个数量级,实现了 200 万字上下文的「无损压缩」。一个能读 200 万字的 AI 助手是什么概念?这意味着,它可以一口气读完整个《甄嬛传》剧本,然后和你讨论剧情。或者一口气读完一本厚厚的中医诊疗手册,给你提出诊疗建议。对于人类来说,成为某个领域的专家可能需要 10000 个小时的学习,但对于这个 AI 来说,只需要 10 分钟就够了。将甄嬛传全集几十万字的剧本传给 AI 助手,然后提问剧本中有哪些细节表明甄嬛的孩子是果郡王的。它能在不同时间段、各个场景的故事

AI在用| 又是一年毕业季,给你找了个论文搭子Kimi+

机器之能报道编辑:山茶花以大模型、AIGC为代表的人工智能浪潮已经在悄然改变着我们生活及工作方式,但绝大部分人依然不知道该如何使用。因此,我们推出了「AI在用」专栏,通过直观、有趣且简洁的人工智能使用案例,来具体介绍AI使用方法,并激发大家思考。   我们也欢迎读者投稿亲自实践的创新型用例。近日,月之暗面的 Kimi 迎来大更新,不仅 Logo 变得更卡通俏皮,还上线了「Kimi 」功能。所谓「Kimi 」,就是一个 AI 私人助理,有点类似于 OpenAI 的 GPTs,可以为用户提供更多个性化的 AI 服务,例