刚刚,Manus联创回应“沙盒越狱”问题,并表示:没用MCP!顺便官宣了开源计划!

💫X平台用户@jian发布帖子称通过简单的自然语言指令成功获取Manus的系统文件(路径:/opt/.manus/),暴露其沙箱运行时代码、工具链及完整提示词框架。 Manus联合创始人季逸超(Peak)在跟帖中进行了回复,以下是内容翻译:嗨! 我是 Manus AI 的 Peak。

💫X平台用户@jian发布帖子称通过简单的自然语言指令成功获取Manus的系统文件(路径:/opt/.manus/),暴露其沙箱运行时代码、工具链及完整提示词框架。

Manus联合创始人季逸超(Peak)在跟帖中进行了回复,以下是内容翻译:

嗨!我是 Manus AI 的 Peak。其实没那么复杂——每位用户都可以直接访问沙盒(见截图了解方法)。

刚刚,Manus联创回应“沙盒越狱”问题,并表示:没用MCP!顺便官宣了开源计划!

具体来说:

每个会话都有自己的沙盒,彼此完全隔离。用户可以直接通过 Manus 的界面进入沙盒。

沙盒中的代码仅用于接收来自代理的指令,因此只是做了轻度混淆。

工具的设计并不是什么秘密——Manus 代理的动作空间设计与常见的学术方法并无显著不同。而且由于 RAG 机制,通过越狱获得的工具描述会因任务不同而有所变化。

刚刚,Manus联创回应“沙盒越狱”问题,并表示:没用MCP!顺便官宣了开源计划!

多代理实现是 Manus 的一项核心功能。在与 Manus 交流时,用户只会与执行代理(executor agent)对话,而执行代理本身并不了解知识库、规划器或其他代理的详细信息。这有助于控制上下文长度,因此,通过越狱获取的提示词大多是幻觉内容。

我们确实使用了 @browser_use 的开源代码。事实上,我们采用了许多不同的开源技术,这也是为什么我在发布视频中特别提到,如果没有开源社区,就不会有 Manus。接下来,我们会陆续发布一系列致谢和合作内容。

不必着急——我们的团队一直有开源的传统,我个人也一直在 HuggingFace 上分享自己训练的模型。未来,我们会开源不少好东西。

刚刚,Manus联创回应“沙盒越狱”问题,并表示:没用MCP!顺便官宣了开源计划!

💫对于使用MCP(Anthropic的模型上下文协议(Model Context Protocol,MCP)是一个开放标准,旨在标准化应用程序与大型语言模型(LLM)之间的上下文提供方式。)的调侃。季逸超也回应:没有使用MCP!

而是从朋友王星尧(@xingyaow_)的项目CodeAct,中获得了灵感:

1.编写代码并不是最终目标,而是一种通用的方法来解决广义问题。

2.由于 LLM 在编写代码方面表现出色,因此让代理执行与其训练分布最契合的任务是合理的。

3.这种方法显著减少了上下文长度,并支持复杂操作的组合。

最后,在被问到为啥不用MCP时。季逸超也大方回复:“因为……Manus 早在 Model Context Protocol 推出之前就已经开始开发了🤣”

相关资讯

一文读懂:模型上下文协议(MCP)

Hello folks,我是 Luga,今天我们来聊一下人工智能应用场景 - 构建高效、灵活的计算架构的模型上下文协议(MCP)。 随着人工智能迈向更复杂的应用场景,单一模型的局限性逐渐显现,而多模型协同与上下文感知的需求日益迫切。 从对话系统需要理解用户的历史语境,到跨模态任务要求无缝整合文本、图像等多源数据,AI 的发展正呼唤一种全新的协作范式。

万字长文:说清MCP的前世今生+RAGFlow整合应用示例

上篇文章给大家预告了我在研究些 RAG MCP(大模型上下文协议)的事,前后断断续续写了四天,终于完成了这篇稿子,这篇试图说清楚两个事情:1、从复杂提示词引导模型调用工具开始,到 MCP 作为统一协议标准的变化过程;2、小试牛刀的演示下在传统 RAG 基础上,针对机械加工场景结合 MCP 的一些功能延展示例。 以下,enjoy:1、先说说大模型 API 调用先简单回顾下最简单的大模型基础聊天应用开发,也就是直接按照目标 LLM 的官方 API 文档进行请求的做法。 例如,如果我们要通过 Python 调用 DeepSeek-R1 模型进行问答,按照官方文档说明示例如下:因为大多数模型厂商都是兼容 OpenAI 规范的,也就是说在使用 OpenAI SDK 请求方式下,直接替换上述的 base_url 换成其他模型地址,都是可以实现请求响应的。

图解「模型上下文协议(MCP)」:从与传统 API 的比较入手

最近,关于模型上下文协议(MCP)的讨论非常热烈。 你一定听说过它。 今天,让我们一起来了解一下模型上下文协议(MCP)。