自 2023 年 OpenAI 发布函数调用功能以来,我一直在思考如何构建一个智能体与工具协同的生态系统。随着基础模型的智能化程度提升,智能体与外部工具、数据和 API 的交互能力变得日益碎片化:开发者需要为每个集成系统单独实现包含特定业务逻辑的智能体。显然,我们需要一个执行、数据获取和工具调用的标准接口。API 曾是互联网的首个伟大统一者,为软件通信创造了通用语言,但 AI 模型仍缺乏类似标准。
2024 年 11 月推出的模型上下文协议(Model Context Protocol, MCP),作为潜在解决方案在开发者和 AI 社区中迅速获得关注。本文将探讨 MCP 的定义、其如何改变 AI 与工具的交互方式、开发者基于 MCP 的创新实践,以及仍需解决的挑战。
与您之前使用的本地 MCP 服务器不同,远程 MCP 服务器可通过互联网访问。人们只需使用熟悉的授权流程登录并向 MCP 客户端授予权限即可。我们认为这将是一项重大举措 — 在过去几个月中,将编码代理连接到 MCP 服务器让开发人员大开眼界,而远程 MCP 服务器同样有潜力为更广泛的受众开辟类似的使用 LLM 和代理的新方式,包括更多日常消费者用例。
1.什么是 MCP?
MCP 是一种开放协议,允许系统以可跨集成场景通用的方式为 AI 模型提供上下文。该协议定义了 AI 模型调用外部工具、获取数据和与服务交互的标准。以 Resend MCP 服务器与多个 MCP 客户端的协作流程为例:
图片
智能体选择Resend → MCP服务器及内置的send_email工具 → Cursor(MCP客户端)调用send_email 提示:"能否发送邮件至[email protected]并问候?" → Claude Desktop调用send_email(内容) → Resend MCP服务器工具 → Resend服务
图片
MCP 的灵感源自语言服务器协议(LSP)。在 LSP 中,用户在编辑器输入时,客户端会向语言服务器请求代码补全或诊断建议。MCP 的扩展之处在于以智能体为中心的执行模型:LSP 主要是被动响应 IDE 请求,而 MCP 旨在支持自主 AI 工作流。基于上下文,AI 智能体可决定工具调用顺序、组合方式,并引入人工介入机制以补充数据或审批执行。
图片
2.当前热门用例
通过部署 MCP 服务器,用户可将任意 MCP 客户端转化为 “全能应用”。
图片
2.1开发者工作流
开发者可在 IDE 内直接完成数据库查询、缓存管理等操作,无需切换工具:
使用 Postgres MCP 服务器执行只读 SQL 命令
通过 Upstash MCP 服务器创建缓存索引
借助 Browsertools MCP 实时调试代码(示例:Tetris 游戏过早结束的调试流程)
2.2全新用户体验
- Claude Desktop:为非技术用户提供友好的 MCP 工具入口
- Highlight:通过 @命令调用任意 MCP 服务器(示例:直接在聊天中创建 Notion 页面)
- Blender MCP:支持自然语言生成 3D 模型(示例:"a16z infra" 标志设计)
3.MCP 生态系统
当前生态系统呈现以下特征:
- 客户端:以编码工具为主(如 Cursor),商业场景客户端正在兴起
- 服务器:聚焦本地优先和单用户场景,远程服务器标准化进程启动
- 基础设施:市场平台(Mintlify、Smithery)降低服务器发现成本,部署工具(Cloudflare)解决扩展性问题
4.未来可能性
尽管 MCP 已取得进展,但仍需解决以下关键挑战:
- 多租户架构:支持企业级共享服务器部署
- 认证授权体系:统一 OAuth/API 令牌标准,实现细粒度权限控制,比如 cloudflare 做了一套 MCP 服务认证授权系统
- 网关层:集中管理流量、安全策略和工具路由
- 标准化开发体验:统一工具选择逻辑、UI 交互模式和调试工具
- 执行环境:支持多步工作流的状态管理
5.AI 工具的深远影响
若 MCP 成为 AI 工作流的事实标准,可能引发以下变革:
- 竞争维度转移:企业需同时优化 API 设计和工具集合
- 动态定价模型:工具选择将基于速度、成本和相关性实时决策
- 文档基础设施化:需提供机器可读的工具说明(如 llms.txt)
- 新型托管服务:支持多步执行、重试机制和实时负载均衡
6.前行之路
2025 年将是 MCP 发展的关键年:
- 能否形成统一的 MCP 市场平台?
- 智能体认证能否实现无缝衔接?
- 多步执行能否成为协议原生功能?
MCP 正重塑 AI 智能体生态,但下一阶段的突破将取决于我们如何解决这些基础挑战。若成功,MCP 有望成为 AI 与工具交互的默认接口,开启自治化、多模态、深度集成的 AI 新时代。