- tags
- [AI, Agent, 协议, 基础设施, 开源]
- created
- 2026-04-13
- updated
- 2026-04-28
- sources
- [raw/notes/mcp-protocol-ecosystem-2026.md, raw/notes/hotmind-family-agent-spec-2026-04-17.md, raw/notes/agora-conversational-ai-join-api-2026-04-15.md, raw/notes/walmart-agentic-ai-strategy-2026-04-27.md, raw/notes/anthropic-mcp-production-agents-blog-2026-04-23.md, raw/notes/google-agent-platform-research-2026-04-28.md]
定义¶
Anthropic 2024 年 11 月发布的开源开放标准,将 AI 系统与外部工具/数据源的集成从 N×M 定制连接器简化为统一协议。16 个月内从 200 万月下载增长至 9700 万月 SDK 下载,5800+ 社区服务器。所有主要 AI 提供商(Anthropic、OpenAI、Google、Microsoft、AWS)均已采纳。
为什么赢了¶
- 真实痛点:每个模型×每个工具都需定制集成,MCP 统一为 client-server 协议
- 开源开放:MIT 许可,降低采纳门槛
- 中立治理:2025.12 捐赠给 Linux Foundation 下的 Agentic AI Foundation(创始成员:Block, OpenAI, AWS, Google, Microsoft)——消除"Anthropic 随时改规则"的顾虑
- 大厂背书:OpenAI(2025.03)、Google DeepMind(2025.04)先后宣布支持
生态规模(2026.04 升级)¶
- 3 亿月 SDK 下载(Anthropic 2026-04-23 官方博客原文:"The MCP SDKs recently surpassed 300 million downloads a month, up from 100 million at the start of the year")—— 4 个月翻 3 倍。注意 SDK 下载含 CI/CD 管线膨胀,非生产部署数
- 5800+ 社区服务器,10,000+ 活跃公开 MCP 服务器
- 企业生产部署:Block(内部开发工具)、Sourcegraph(Cody)、Cloudflare(Workers AI)、Autodesk——从内部工具起步,验证 ROI 后扩展至客户端
- 生产性能:MCP v2.1 Streamable HTTP 延迟降低 95%,支持 10,000+ 并发连接 <50ms 响应
- ~~企业就绪挑战仍在~~ 2026-04 部分回应:Tool Search 解决 schema 膨胀(85% token 减少),Programmatic Tool Calling 解决不可组合(37% token 减少),但审计日志 / 认证绑定静态密钥 / 网关行为未定义等治理层挑战仍在
- Gartner 预测 2026 年底 40% 企业应用将含任务级 AI Agent;Forrester 预测 30% 企业软件供应商将发布自有 MCP 服务器
与 Harness Engineering 的关系¶
MCP 是 harness-engineering 中 "Environment(能干事)"层的标准化——工具调用的统一接口。Anthropic 的策略正是 harness-engineering 描述的生态护城河:
"标准开放,最佳实现封闭"
捐赠给中立基金会 = 标准开放。Claude Code 在 MCP 生态中表现最好 = 最佳实现封闭。
2026 展望¶
- 流式数据:从请求-响应扩展到 streaming(Q3 2026 预期)
- Agent 间协议:目前 MCP 只定义 client-server,Anthropic 已发布 agent-to-agent 伴侣规范草案
- MCP Apps:协议上的交互式 UI——与 generative-ui 汇合
- 安全与发现:企业级认证、服务发现、Agent 货币化
2026-Q1 社区批评 + ScaleKit Benchmark + Anthropic 4-23 官方回应¶
2026 第一季度 MCP 经历了一次真实的范式压力测试——社区围绕 token 成本和 reliability 集中批评,最终由 Anthropic 4-23 官方博客《Building agents that reach production systems with MCP》给出战略性回应。这条事件链是 MCP 从"通用 agent 协议"收缩到"云端生产 agent 标准化接入层"的明确边界划定。
ScaleKit Benchmark:CLI vs MCP 一手数据¶
ScaleKit 公司开源 benchmark(github.com/scalekit-inc/mcp-vs-cli-benchmark):75 轮 / 同模型(Claude Sonnet 4)/ 同 prompt / 同 GitHub 任务 / gh CLI vs GitHub Copilot 官方 MCP server (43 工具):
| 方案 | tokens / 单次任务 | 每月 10K 次成本 | 成功率 |
|---|---|---|---|
| CLI | 1,365 | $3.20 | 100% (25/25) |
| CLI + Skills | 4,724 | — | 100% (25/25) |
| MCP | 44,026 | $55.20 | 72% (18/25) |
Token 差距:CLI 比 MCP 便宜 32x(单次)/ 17x(月成本)
Reliability 差距:MCP 7 次失败全是 ConnectTimeout(TCP-level / infrastructure failures,模型无法 reason 或 retry——"silently break the agent's workflow")。CLI 因 gh 在本地跑没这个问题。
根因:MCP overhead 不是协议问题,是 schema injection 问题。GitHub Copilot MCP server 暴露 43 工具,每次 tool call 把 43 个工具的完整 schema 全部塞进上下文——简单的"get repo info"也要带上 creating gists / managing PR reviews / configuring webhooks 等永远用不到的工具描述。
Perplexity / Apideck 两个独立 "72%" 数字¶
社区流传的 "72%" 实际是两个不同来源(AGIHunt 中文转载混淆了): - ScaleKit reliability 72%(18/25 成功率) - Apideck context 72%(3 个 MCP server = GitHub + Slack + Sentry,40 tool schemas 占 143K / 200K context)
Perplexity CTO Denis Yarats 2026-03-11 在 Ask 2026 conference 公开宣布"远离 MCP,转向传统 API + CLI"。Perplexity 内部 benchmark 显示 MCP 比 CLI 多耗 15-20x token,无任务质量提升。
Anthropic 4-23 博客的两个 Token 解法¶
1. Tool Search(按需加载工具)
之前:所有工具定义一股脑塞进上下文(GitHub MCP 43 工具 → 44,026 tokens) 现在:Agent 描述意图 → 系统运行时搜索 → 只把匹配的几个拉进来
"In testing, tool search tends to cut tool-definition tokens by 85%+ while maintaining high selection accuracy."
核心设计原则:工具按意图分组,不按 API 分 —— 这条对 agent-tool-design 是设计哲学的实质升级。
2. Programmatic Tool Calling(程序化工具调用)
之前:tool 结果直接回到模型上下文 → 模型当"搬运工" 现在:tool 结果在代码执行沙箱里循环 / 过滤 / 聚合,只把最终结果回到上下文
"In testing, this reduces token usage by roughly 37% on complex multi-step workflows."
两个机制叠加:MCP 与 CLI 的 token 差距从 32x 缩到约 7x(44,026 → ~10,000 tokens)。MCP 仍贵,但不再是数量级差距。
Cloudflare 案例:代码编排(CLI 哲学搬进 MCP)¶
- Cloudflare MCP server 覆盖约 2,500 个 API 端点
- 传统做法不可行(2,500 工具定义全塞进上下文)
- Cloudflare 做法:只暴露 2 个工具——
search+execute - Agent 用 search 找 API → 写脚本通过 execute 在服务端沙箱跑
- 工具定义只占 ~1K tokens
Anthropic 判断:"好的 MCP 服务器应该像 CLI 一样设计"——把 CLI 哲学搬进 MCP 协议,区别是跑在云端走 MCP 协议而不是本地命令行。MCP 与 CLI 不是对立,是好的 MCP 服务器应该长得像 CLI。
MCP 和 CLI 的最终分工(Anthropic 官方立场)¶
| 部署环境 | 推荐 | 原因 |
|---|---|---|
| 本地开发环境 | CLI + Skills | 轻量、快速、上下文干净 / agent 天生说命令行 |
| 云端生产环境 | MCP + Skills | 标准化、跨平台、认证完备 / Cowork / Managed Agents / 移动 / Web 没本地文件系统 |
| 简单一对一场景 | 直连 API | 别瞎折腾 |
结论:MCP 没死,但范围明确收缩到云端生产 agent 标准化接入层。这是 4-04 OpenClaw 撤 OAuth piggyback 事件后社区情绪低落 → Anthropic 官方 4-23 博客反向定位强化——主动定义新边界,确保 MCP 仍是开放标准生态护城河。
MCP + Skills 配套实证¶
- Claude 数据插件案例:10 个 Skills + 8 个 MCP servers 打包,覆盖 Snowflake / Databricks / BigQuery / Hex
- 第三方实证:Canva、Notion、Sentry 已开始发布 MCP server 同时附带 Skills
- MCP 社区在开发扩展,让 Skills 可以从 MCP server 分发,API 升级时 Skills 自动跟着升级版本
→ Anthropic 把"MCP 管能力 / Skills 管编排"明确写进官方实践博客,回应了 Peter Steinberger 等批评者"CLI + Skills 才是正道"的论点——两者共存不矛盾。
MCP 演进事件链¶
| 时间 | 事件 |
|---|---|
| 2024-11 | Anthropic 发布 MCP 1.0 |
| 2025-12 | MCP 捐赠给 Linux Foundation 下的 Agentic AI Foundation |
| 2026-01 | MCP SDK 月下载达 1 亿 |
| 2026-02-20 | Anthropic 法律条款禁止 subscription OAuth tokens 用于第三方工具(OpenClaw 政策起步) |
| 2026-03-11 | Perplexity CTO 在 Ask 2026 conference 公开"远离 MCP" |
| 2026-04-04 | Anthropic 全面执行 OAuth piggyback 撤销(详见 platform-layer-collapse OpenClaw 段) |
| 2026-04 中 | Peter Steinberger(OpenClaw 创始人,"龙虾之父")在播客痛批 MCP:"默认污染上下文 + 大部分 MCP 做得不好" |
| 2026-04-23 | Anthropic 官方博客《Building agents that reach production systems with MCP》—— SDK 已达 3 亿 + Tool Search/Programmatic Calling 解法 + Cloudflare 2 工具案例 + MCP+Skills 配套 |
垂直扩展实证:Universal Commerce Protocol(UCP,2026-01)¶
Google 2026-01-11 在 NRF Big Show 公布 Universal Commerce Protocol (UCP),是 MCP 之上的 commerce 垂直扩展协议。这条扩展不是替代 MCP,是兼容 MCP 之上加 domain-specific schemas:
| 协议 | 层 | 范围 |
|---|---|---|
| MCP | 通用 client-server 协议 | AI agent ↔ 任意工具/数据源 |
| UCP | Commerce 垂直扩展 | AI agent ↔ merchant catalog/cart/checkout/order |
| A2A | Agent-to-Agent | Agent 之间通信 |
| AP2 | Agent Payments Protocol | agentic 支付专用 |
UCP 技术架构:分层协议(Shopping service / Capabilities / Extensions),去中心化发现(merchants 在自己 domain 的 /.well-known/ucp 发布 capabilities),让任何 UCP-compatible agent(Gemini / ChatGPT / Claude / 任何未来 agent)可以查询 catalog → 建 cart → 结账 → 接收 order status 更新——不用 scraping merchant 网站或 browser session。
合作方阵容(2026-04-08 v2026-04-08): - 核心:Shopify, Etsy, Wayfair, Target, Walmart - 20+ 全球:Adyen, American Express, Best Buy, Flipkart, Macy's, Mastercard, Stripe, The Home Depot, Visa, Zalando, BigCommerce, PayPal - 缺席:WooCommerce(占全球网站 43.4% 的 WordPress 系电商插件)—— agentic commerce 长尾市场命运待观察
对 MCP 生态的含义:
- MCP 已成"开放 agent 协议"基础层:垂直应用(commerce)在 MCP 之上加 domain-specific 协议而非另起炉灶——这印证了 MCP 的协议中立性让它能成为生态底座
- N×N 集成瓶颈正式被打破:Google UCP 公告原话:"Businesses face an N x N integration bottleneck" → UCP 提供标准层让任何 agent 接任何 merchant
- Shopify "翻一个开关"集成模式:admin 里 toggle Agentic Storefronts,无需 app 安装 / 自定义集成 / 开发者参与——这是 MCP 生态成熟度的 UI 表现
- Walmart 同时在三层下注:作为 UCP 早期合作方(公开外卖)+ 内部 Wally super agents 用 Microsoft Azure OpenAI(私有)+ 与 Google Gemini 合作做 Agentic Commerce(开放)——零售巨头的 multi-agent 布局是开放协议生态的最大客户之一
对 Sentino 的具体含义:UCP 与 Sentino IoT/Agent 直接相关性弱(不卖商品),但 UCP 模式(MCP 之上加 domain-specific 协议)值得参考——如果 Sentino 未来要给 Agent 平台定义"语音陪伴 / IoT 控制"等垂直协议,可以走"在 MCP 之上加 capabilities/extensions"路径而非另起炉灶,复用 MCP 已有客户端生态。
企业落地实证:客户开放 MCP,Sentino 走传统 REST 路径¶
Hotmind 客户(hotmind-client)的 RFP 把家庭平台数据以 MCP server(/api/mcp,标准 initialize / tools/list / tools/call)+ REST API(/api/v1/)双形态开放给被采购的 Agent 方。这是 MCP 在 B2B 集成成熟度的两个并行信号:
信号 A — MCP 已成 RFP 标准接口:一年前客户做 IoT 平台还需要自己设计 function calling 协议,2026 年 Hotmind 已经把 MCP server 作为 RFP 标准接口对外开放。MCP 已从"开发者工具"成熟到"客户给乙方的接口标准"。
信号 B — 但 MCP-only 仍非真实部署形态:客户主动留 REST 兜底,因为承包方 Agent 框架不一定 MCP-aware。Sentino 当前就是这种承包方——不使用 MCP,走传统 HTTP-as-tool 方案:把客户 REST API 包装成 LLM function calling 工具描述,由 Agent 调度。
含义:MCP 的企业渗透是非对称的——server 端(数据/工具持有方)比 client 端(Agent 框架方)演进更快。客户为了不赌承包方一定会用 MCP,主动出双形态接口;这个观察印证了"MCP-only 部署在 B2B 短期内不会是默认形态"。
对 Sentino 的具体含义:是否引入 MCP client 工程能力(自建 vs 复用 claude-agent-sdk)是开放问题——当前需求是"REST consumer",等到第二/第三个开放 MCP server 的客户出现再立项也来得及。
Google Agent Gateway 多协议中 MCP 享有特殊地位(2026-04-22)¶
Google Gemini Enterprise Agent Platform Govern 柱的 Agent Gateway(Thomas Kurian 称"air traffic control for your agent ecosystem")支持 MCP / A2A / REST / gRPC 多协议——但只有 MCP 支持基于 protocol attribute 的授权策略条件。
| 协议 | Agent Gateway 支持 | 基于 protocol attribute 的授权策略条件 |
|---|---|---|
| MCP | ✅ | ✅ 唯一支持 |
| A2A | ✅ | ❌(4-22 时点) |
| REST | ✅ | ❌ |
| gRPC | ✅ | ❌ |
含义:MCP 在 2026-04 时点已被 Google 当作多协议中的"一等公民"对待——这是 Agora ConvoAI 把 mcp_servers 内置进 LLM 配置之后更高一层的渗透:
| 渗透层级(升级版) | 实证 |
|---|---|
| Layer 1 — 数据/工具持有方开放 server | Hotmind 客户把家庭平台数据封装为 MCP server(hotmind-client) |
| Layer 2 — Agent 框架方作为 client 消费 | Anthropic Claude Code / claude-agent-sdk 等已具备 |
| Layer 3 — 平台基础设施层把 MCP 内置为一等配置项 | Agora ConvoAI v2 join API 的 llm.mcp_servers |
| Layer 4 — Agent 治理层把 MCP 作为多协议中享有特殊地位的协议 | Google Agent Gateway 在 MCP / A2A / REST / gRPC 多协议中给 MCP 唯一的 protocol-attribute 授权策略支持 |
对 Sentino 的具体含义:Sentino 当前不消费 MCP(走传统 HTTP-as-tool 方案),但当客户切到 Google Agent Gateway 做治理时,MCP server 形态会比 REST 形态获得更细粒度的策略支持——这给"Sentino 是否要把工具暴露成 MCP server 形态"这个开放问题加了一个新输入:不只是 client 消费 MCP,server 端暴露 MCP 也开始有差异化收益。
平台基础设施层渗透:Agora ConvoAI 把 mcp_servers 内置进 LLM 配置¶
agora-convoai-join-api v2 join API 的 LLM 配置结构里,mcp_servers 是 llm 对象内的一等字段——可声明多个 MCP server endpoint(带 auth 与 tools 白名单),由 Agora 在 LLM 推理时直接代为调用工具,绕过承包方 LLM 自己实现 function calling。这是比"Hotmind 客户开放 MCP server"更深一层的渗透信号——语音平台厂商作为 MCP client 把 MCP 内置进了基础设施:
| 渗透层级 | 实证 |
|---|---|
| Layer 1 — 数据/工具持有方开放 server | Hotmind 客户把家庭平台数据封装为 MCP server(hotmind-client) |
| Layer 2 — Agent 框架方作为 client 消费 | Anthropic Claude Code / claude-agent-sdk 等已具备 |
| Layer 3 — 平台基础设施层把 MCP 内置为一等配置项 | Agora ConvoAI v2 join API 的 llm.mcp_servers |
这意味着 MCP 已经从"应用层协议"升级到"基础设施层默认能力"——开发者不需要写 client 代码,声明 server endpoint 即可。
对 Sentino 的具体含义(强化版):
- 存在"绕过 Sentino LLM"的捷径——客户既开放了 MCP server、又用 Agora ConvoAI 做编排时,Agora 可以直接调客户 MCP,根本绕过 Sentino LLM。Hotmind 客户最终选 Sentino 而不是这条捷径,是因为需要 Sentino 的 Agent 工程能力(多意图拆分 / 家庭成员消歧 / 危险操作判定 / prompt 调优),不是为了纯工具中转
- Sentino 差异化护城河进一步明确:在"工具中转"这件事上,平台基础设施已经能干(Agora
mcp_servers);Sentino 差异化必须落在Agent 工程层——多意图拆分、prompt 工程、消歧策略、护栏判定——这些是 mcp_servers 字段干不了的 - 当前不依赖 mcp_servers 字段——Sentino LLM endpoint 内部走 REST + function calling,工具调用不在 Agora 这层处理
相关概念¶
- harness-engineering — MCP 是 Harness 工具层的标准化实现
- agent-tool-design — MCP 定义了工具接口的标准格式
- orchestration-free-agents — MCP 解决单 Agent 工具调用,Carlini 项目解决多 Agent 协同
- ai-agent-moats — 开放标准是生态护城河的基础设施层
- claude-agent-sdk — SDK 提供一等公民 MCP 支持 + 独有的进程内 SDK Server
- palantir-ontology — Palantir Ontology MCP Server:将专有 Ontology 通过 MCP 暴露给外部 AI Agent
- cloudflare-mesh — Cloudflare Mesh 解决 Agent 访问私有 MCP 服务器的网络层问题(Workers VPC Binding)
- hotmind-client — 客户开放 MCP server + REST 双形态,Sentino 走 REST 路(不消费 MCP),是 MCP server/client 端演进非对称的实证
- agora-convoai-join-api — Agora 把
mcp_servers内置进 LLM 配置层,MCP 渗透到语音基础设施的 Layer 3 实证;进一步明确 Sentino 差异化护城河 = Agent 工程层而非工具中转 - agora-rtsa-sdk — 平台基础设施"把能力暴露成可声明配置项"的同源样本:RTSA 的 8 种加密模式 + datastream 可靠性配置 = 与 mcp_servers 同一种"声明而非编程"模式
- agent-creator-refiner-operator — UCP 是 Operator 类 agent 在 commerce 垂直的协议基础设施——让 agent 真正能"replace user 完成购物"而非只展示推荐
- google-agent-platform — Google Agent Gateway 多协议(MCP / A2A / REST / gRPC)中 MCP 是唯一支持 protocol-attribute 授权策略条件的协议——Layer 4 渗透实证