🏠 home › concepts › mcp-protocol
tags
[AI, Agent, 协议, 基础设施, 开源]
created
2026-04-13
updated
2026-04-28
sources
[raw/notes/mcp-protocol-ecosystem-2026.md, raw/notes/hotmind-family-agent-spec-2026-04-17.md, raw/notes/agora-conversational-ai-join-api-2026-04-15.md, raw/notes/walmart-agentic-ai-strategy-2026-04-27.md, raw/notes/anthropic-mcp-production-agents-blog-2026-04-23.md, raw/notes/google-agent-platform-research-2026-04-28.md]

定义

Anthropic 2024 年 11 月发布的开源开放标准,将 AI 系统与外部工具/数据源的集成从 N×M 定制连接器简化为统一协议。16 个月内从 200 万月下载增长至 9700 万月 SDK 下载,5800+ 社区服务器。所有主要 AI 提供商(Anthropic、OpenAI、Google、Microsoft、AWS)均已采纳。

为什么赢了

  1. 真实痛点:每个模型×每个工具都需定制集成,MCP 统一为 client-server 协议
  2. 开源开放:MIT 许可,降低采纳门槛
  3. 中立治理:2025.12 捐赠给 Linux Foundation 下的 Agentic AI Foundation(创始成员:Block, OpenAI, AWS, Google, Microsoft)——消除"Anthropic 随时改规则"的顾虑
  4. 大厂背书:OpenAI(2025.03)、Google DeepMind(2025.04)先后宣布支持

生态规模(2026.04 升级)

与 Harness Engineering 的关系

MCP 是 harness-engineering 中 "Environment(能干事)"层的标准化——工具调用的统一接口。Anthropic 的策略正是 harness-engineering 描述的生态护城河:

"标准开放,最佳实现封闭"

捐赠给中立基金会 = 标准开放。Claude Code 在 MCP 生态中表现最好 = 最佳实现封闭。

2026 展望

2026-Q1 社区批评 + ScaleKit Benchmark + Anthropic 4-23 官方回应

2026 第一季度 MCP 经历了一次真实的范式压力测试——社区围绕 token 成本和 reliability 集中批评,最终由 Anthropic 4-23 官方博客《Building agents that reach production systems with MCP》给出战略性回应。这条事件链是 MCP 从"通用 agent 协议"收缩到"云端生产 agent 标准化接入层"的明确边界划定。

ScaleKit Benchmark:CLI vs MCP 一手数据

ScaleKit 公司开源 benchmark(github.com/scalekit-inc/mcp-vs-cli-benchmark):75 轮 / 同模型(Claude Sonnet 4)/ 同 prompt / 同 GitHub 任务 / gh CLI vs GitHub Copilot 官方 MCP server (43 工具):

方案 tokens / 单次任务 每月 10K 次成本 成功率
CLI 1,365 $3.20 100% (25/25)
CLI + Skills 4,724 100% (25/25)
MCP 44,026 $55.20 72% (18/25)

Token 差距:CLI 比 MCP 便宜 32x(单次)/ 17x(月成本)

Reliability 差距:MCP 7 次失败全是 ConnectTimeout(TCP-level / infrastructure failures,模型无法 reason 或 retry——"silently break the agent's workflow")。CLI 因 gh 在本地跑没这个问题。

根因:MCP overhead 不是协议问题,是 schema injection 问题。GitHub Copilot MCP server 暴露 43 工具,每次 tool call 把 43 个工具的完整 schema 全部塞进上下文——简单的"get repo info"也要带上 creating gists / managing PR reviews / configuring webhooks 等永远用不到的工具描述。

Perplexity / Apideck 两个独立 "72%" 数字

社区流传的 "72%" 实际是两个不同来源(AGIHunt 中文转载混淆了): - ScaleKit reliability 72%(18/25 成功率) - Apideck context 72%(3 个 MCP server = GitHub + Slack + Sentry,40 tool schemas 占 143K / 200K context)

Perplexity CTO Denis Yarats 2026-03-11 在 Ask 2026 conference 公开宣布"远离 MCP,转向传统 API + CLI"。Perplexity 内部 benchmark 显示 MCP 比 CLI 多耗 15-20x token,无任务质量提升。

Anthropic 4-23 博客的两个 Token 解法

1. Tool Search(按需加载工具)

之前:所有工具定义一股脑塞进上下文(GitHub MCP 43 工具 → 44,026 tokens) 现在:Agent 描述意图 → 系统运行时搜索 → 只把匹配的几个拉进来

"In testing, tool search tends to cut tool-definition tokens by 85%+ while maintaining high selection accuracy."

核心设计原则工具按意图分组,不按 API 分 —— 这条对 agent-tool-design 是设计哲学的实质升级。

2. Programmatic Tool Calling(程序化工具调用)

之前:tool 结果直接回到模型上下文 → 模型当"搬运工" 现在:tool 结果在代码执行沙箱里循环 / 过滤 / 聚合,只把最终结果回到上下文

"In testing, this reduces token usage by roughly 37% on complex multi-step workflows."

两个机制叠加:MCP 与 CLI 的 token 差距从 32x 缩到约 7x(44,026 → ~10,000 tokens)。MCP 仍贵,但不再是数量级差距

Cloudflare 案例:代码编排(CLI 哲学搬进 MCP)

Anthropic 判断:"好的 MCP 服务器应该像 CLI 一样设计"——把 CLI 哲学搬进 MCP 协议,区别是跑在云端走 MCP 协议而不是本地命令行。MCP 与 CLI 不是对立,是好的 MCP 服务器应该长得像 CLI

MCP 和 CLI 的最终分工(Anthropic 官方立场)

部署环境 推荐 原因
本地开发环境 CLI + Skills 轻量、快速、上下文干净 / agent 天生说命令行
云端生产环境 MCP + Skills 标准化、跨平台、认证完备 / Cowork / Managed Agents / 移动 / Web 没本地文件系统
简单一对一场景 直连 API 别瞎折腾

结论MCP 没死,但范围明确收缩到云端生产 agent 标准化接入层。这是 4-04 OpenClaw 撤 OAuth piggyback 事件后社区情绪低落 → Anthropic 官方 4-23 博客反向定位强化——主动定义新边界,确保 MCP 仍是开放标准生态护城河。

MCP + Skills 配套实证

→ Anthropic 把"MCP 管能力 / Skills 管编排"明确写进官方实践博客,回应了 Peter Steinberger 等批评者"CLI + Skills 才是正道"的论点——两者共存不矛盾

MCP 演进事件链

时间 事件
2024-11 Anthropic 发布 MCP 1.0
2025-12 MCP 捐赠给 Linux Foundation 下的 Agentic AI Foundation
2026-01 MCP SDK 月下载达 1 亿
2026-02-20 Anthropic 法律条款禁止 subscription OAuth tokens 用于第三方工具(OpenClaw 政策起步)
2026-03-11 Perplexity CTO 在 Ask 2026 conference 公开"远离 MCP"
2026-04-04 Anthropic 全面执行 OAuth piggyback 撤销(详见 platform-layer-collapse OpenClaw 段)
2026-04 中 Peter Steinberger(OpenClaw 创始人,"龙虾之父")在播客痛批 MCP:"默认污染上下文 + 大部分 MCP 做得不好"
2026-04-23 Anthropic 官方博客《Building agents that reach production systems with MCP》—— SDK 已达 3 亿 + Tool Search/Programmatic Calling 解法 + Cloudflare 2 工具案例 + MCP+Skills 配套

垂直扩展实证:Universal Commerce Protocol(UCP,2026-01)

Google 2026-01-11 在 NRF Big Show 公布 Universal Commerce Protocol (UCP),是 MCP 之上的 commerce 垂直扩展协议。这条扩展不是替代 MCP,是兼容 MCP 之上加 domain-specific schemas

协议 范围
MCP 通用 client-server 协议 AI agent ↔ 任意工具/数据源
UCP Commerce 垂直扩展 AI agent ↔ merchant catalog/cart/checkout/order
A2A Agent-to-Agent Agent 之间通信
AP2 Agent Payments Protocol agentic 支付专用

UCP 技术架构:分层协议(Shopping service / Capabilities / Extensions),去中心化发现(merchants 在自己 domain 的 /.well-known/ucp 发布 capabilities),让任何 UCP-compatible agent(Gemini / ChatGPT / Claude / 任何未来 agent)可以查询 catalog → 建 cart → 结账 → 接收 order status 更新——不用 scraping merchant 网站或 browser session

合作方阵容(2026-04-08 v2026-04-08): - 核心:Shopify, Etsy, Wayfair, Target, Walmart - 20+ 全球:Adyen, American Express, Best Buy, Flipkart, Macy's, Mastercard, Stripe, The Home Depot, Visa, Zalando, BigCommerce, PayPal - 缺席WooCommerce(占全球网站 43.4% 的 WordPress 系电商插件)—— agentic commerce 长尾市场命运待观察

对 MCP 生态的含义

  1. MCP 已成"开放 agent 协议"基础层:垂直应用(commerce)在 MCP 之上加 domain-specific 协议而非另起炉灶——这印证了 MCP 的协议中立性让它能成为生态底座
  2. N×N 集成瓶颈正式被打破:Google UCP 公告原话:"Businesses face an N x N integration bottleneck" → UCP 提供标准层让任何 agent 接任何 merchant
  3. Shopify "翻一个开关"集成模式:admin 里 toggle Agentic Storefronts,无需 app 安装 / 自定义集成 / 开发者参与——这是 MCP 生态成熟度的 UI 表现
  4. Walmart 同时在三层下注:作为 UCP 早期合作方(公开外卖)+ 内部 Wally super agents 用 Microsoft Azure OpenAI(私有)+ 与 Google Gemini 合作做 Agentic Commerce(开放)——零售巨头的 multi-agent 布局是开放协议生态的最大客户之一

对 Sentino 的具体含义:UCP 与 Sentino IoT/Agent 直接相关性弱(不卖商品),但 UCP 模式(MCP 之上加 domain-specific 协议)值得参考——如果 Sentino 未来要给 Agent 平台定义"语音陪伴 / IoT 控制"等垂直协议,可以走"在 MCP 之上加 capabilities/extensions"路径而非另起炉灶,复用 MCP 已有客户端生态。

企业落地实证:客户开放 MCP,Sentino 走传统 REST 路径

Hotmind 客户(hotmind-client)的 RFP 把家庭平台数据以 MCP server(/api/mcp,标准 initialize / tools/list / tools/call)+ REST API(/api/v1/)双形态开放给被采购的 Agent 方。这是 MCP 在 B2B 集成成熟度的两个并行信号:

信号 A — MCP 已成 RFP 标准接口:一年前客户做 IoT 平台还需要自己设计 function calling 协议,2026 年 Hotmind 已经把 MCP server 作为 RFP 标准接口对外开放。MCP 已从"开发者工具"成熟到"客户给乙方的接口标准"。

信号 B — 但 MCP-only 仍非真实部署形态:客户主动留 REST 兜底,因为承包方 Agent 框架不一定 MCP-aware。Sentino 当前就是这种承包方——不使用 MCP,走传统 HTTP-as-tool 方案:把客户 REST API 包装成 LLM function calling 工具描述,由 Agent 调度。

含义:MCP 的企业渗透是非对称的——server 端(数据/工具持有方)比 client 端(Agent 框架方)演进更快。客户为了不赌承包方一定会用 MCP,主动出双形态接口;这个观察印证了"MCP-only 部署在 B2B 短期内不会是默认形态"。

对 Sentino 的具体含义:是否引入 MCP client 工程能力(自建 vs 复用 claude-agent-sdk)是开放问题——当前需求是"REST consumer",等到第二/第三个开放 MCP server 的客户出现再立项也来得及。

Google Agent Gateway 多协议中 MCP 享有特殊地位(2026-04-22)

Google Gemini Enterprise Agent Platform Govern 柱的 Agent Gateway(Thomas Kurian 称"air traffic control for your agent ecosystem")支持 MCP / A2A / REST / gRPC 多协议——但只有 MCP 支持基于 protocol attribute 的授权策略条件

协议 Agent Gateway 支持 基于 protocol attribute 的授权策略条件
MCP 唯一支持
A2A ❌(4-22 时点)
REST
gRPC

含义:MCP 在 2026-04 时点已被 Google 当作多协议中的"一等公民"对待——这是 Agora ConvoAI 把 mcp_servers 内置进 LLM 配置之后更高一层的渗透:

渗透层级(升级版) 实证
Layer 1 — 数据/工具持有方开放 server Hotmind 客户把家庭平台数据封装为 MCP server(hotmind-client
Layer 2 — Agent 框架方作为 client 消费 Anthropic Claude Code / claude-agent-sdk 等已具备
Layer 3 — 平台基础设施层把 MCP 内置为一等配置项 Agora ConvoAI v2 join API 的 llm.mcp_servers
Layer 4 — Agent 治理层把 MCP 作为多协议中享有特殊地位的协议 Google Agent Gateway 在 MCP / A2A / REST / gRPC 多协议中给 MCP 唯一的 protocol-attribute 授权策略支持

对 Sentino 的具体含义:Sentino 当前不消费 MCP(走传统 HTTP-as-tool 方案),但当客户切到 Google Agent Gateway 做治理时,MCP server 形态会比 REST 形态获得更细粒度的策略支持——这给"Sentino 是否要把工具暴露成 MCP server 形态"这个开放问题加了一个新输入:不只是 client 消费 MCP,server 端暴露 MCP 也开始有差异化收益

平台基础设施层渗透:Agora ConvoAI 把 mcp_servers 内置进 LLM 配置

agora-convoai-join-api v2 join API 的 LLM 配置结构里,mcp_serversllm 对象内的一等字段——可声明多个 MCP server endpoint(带 auth 与 tools 白名单),由 Agora 在 LLM 推理时直接代为调用工具,绕过承包方 LLM 自己实现 function calling。这是比"Hotmind 客户开放 MCP server"更深一层的渗透信号——语音平台厂商作为 MCP client 把 MCP 内置进了基础设施

渗透层级 实证
Layer 1 — 数据/工具持有方开放 server Hotmind 客户把家庭平台数据封装为 MCP server(hotmind-client
Layer 2 — Agent 框架方作为 client 消费 Anthropic Claude Code / claude-agent-sdk 等已具备
Layer 3 — 平台基础设施层把 MCP 内置为一等配置项 Agora ConvoAI v2 join API 的 llm.mcp_servers

这意味着 MCP 已经从"应用层协议"升级到"基础设施层默认能力"——开发者不需要写 client 代码,声明 server endpoint 即可。

对 Sentino 的具体含义(强化版)

  1. 存在"绕过 Sentino LLM"的捷径——客户既开放了 MCP server、又用 Agora ConvoAI 做编排时,Agora 可以直接调客户 MCP,根本绕过 Sentino LLM。Hotmind 客户最终选 Sentino 而不是这条捷径,是因为需要 Sentino 的 Agent 工程能力(多意图拆分 / 家庭成员消歧 / 危险操作判定 / prompt 调优),不是为了纯工具中转
  2. Sentino 差异化护城河进一步明确:在"工具中转"这件事上,平台基础设施已经能干(Agora mcp_servers);Sentino 差异化必须落在Agent 工程层——多意图拆分、prompt 工程、消歧策略、护栏判定——这些是 mcp_servers 字段干不了的
  3. 当前不依赖 mcp_servers 字段——Sentino LLM endpoint 内部走 REST + function calling,工具调用不在 Agora 这层处理

相关概念