2026年4月10日 周五晚上19:30,来了解“从个人单点提效,到构建企业AI生产力”(限30人)
免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

MCP 与 CLI 之争,本质是一场速度博弈

发布日期:2026-04-08 09:37:36 浏览次数: 1565
作者:OpenBuild

微信搜一搜,关注“OpenBuild”

推荐语

AI工具调用协议之争:MCP与CLI的速度博弈背后,是企业级需求与开发效率的终极对决。

核心内容:
1. Perplexity弃用MCP引发行业路线争议
2. MCP结构化优势与CLI轻量特性的对比分析
3. 协议选择背后反映的企业需求与开发效率平衡

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家


OpenBuild 导读:

在 AI 智能体工具调用的赛道上,MCP 与 CLI 的路线之争从未停歇。一方凭借结构化、可审计的优势成为企业级首选,另一方则以轻量低延迟占据效率高地。而随着 Perplexity 公开宣布弃用 MCP、回归 CLI 与 API,这场技术路线的辩论被彻底推向高潮。双方分歧看似围绕协议展开,实则核心都指向同一个关键指标:速度。


原标题:The Debate of MCP vs. CLI Centers on Speed.


MCP 走过成型之年,却在一周内陷入巨大争议。

https://x.com/morganlinton/status/2031795683897077965


在 Ask 2026 大会上,Perplexity CTO Denis Yarats 登台宣布:Perplexity 将弃用 MCP,重新回归 API 与 CLI 方案。


消息一出,社区立刻分成两大阵营。


这并不令人意外。毕竟 MCP 最初只是 Anthropic 在 2024 年 11 月推出的一项开放标准,却在短短 13 个月内实现全行业普及,横跨多家公司与平台,月下载量突破 9700 万。而现在,一家头部 AI 公司却选择退出。


https://www.anthropic.com/news/donating-the-model-context-protocol-and-establishing-of-the-Agentic-ai-foundation


MCP 的额外开销并非毫无意义。该协议的设计思路,是把模型交互约束在明确、可审计的固定路径上:

  • 每次工具调用都会携带完整的 Schema 定义

  • 每次鉴权握手都走完整端到端流程

  • 每一步执行都必须等待上一步完成


这种强规范性与可预测性,正是企业级落地所需要的。

但代价也显而易见:在多步工作流中,每一个结构化步骤都会引入延迟,延迟会在一连串工具调用中不断累积。


/ 01

反对 MCP 的声音

支持 Perplexit 这一决定的人认为:MCP 的Token 开销过高,严重拖慢运行时性能,而且接入工具越多,问题越严重。


DevCommunity 的 Samir Amzani 给出了一个直观对比:只接入 GitHub、Slack、Sentry 三个服务,MCP 在上下文窗口中就会塞入超过 55,000 个 Token 的工具定义,甚至早于模型读取用户消息。其 Token 占用是 CLI 的 3~42 倍。


/ 02

支持 MCP 的声音

尽管承认 MCP 存在延迟问题,但其支持者指出,切回 CLI 会让开发者失去一系列关键能力。CLI 确实轻量、快速,但也高度静态:

  • 只能调用预先写死在代码里的工具

  • 每个服务都需要开发者单独维护鉴权

  • 没有统一的协议层来做可观测性与调试



Perplexity 并未发布官方解释,但这场分歧本质上反映了真实的工程需求差异:

  • 对延迟敏感的团队会觉得 CLI 更实用

  • 重视可观测性与生产环境安全性的团队,则愿意为 MCP 的结构化付出开销


/ 03

跳出 “协议选择” 本身

切换到 CLI 和 API 确实能解决一部分问题:Token 开销下降,单步延迟降低。但这并不能解决所有问题。一些更底层的约束 —— 比如大规模场景下的延迟叠加、不安全的代码执行 —— 并不能靠简单替换接口来彻底解决。


这些更深层的问题,指向两个更值得关注的方向:推理基础设施与代码执行环境。



方向一:更高性能的推理

一个核心思路是优化推理底层,直接解决延迟问题。Cerebras 晶圆级引擎等新一代低延迟 AI 芯片架构,可以将模型权重保持在片内存储,而不依赖传统 GPU 的片外内存,从而消除内存瓶颈。


效果显著:推理速度最高可达 3000 Token / 秒,相较传统 GPU 方案提升约 15 倍(视模型而定)。


这会直接改变 MCP 的性价比。当推理足够快时,搭配 MCP Server、GitHub 代码上下文、Slack 团队数据、Atlassian 项目状态等工具,每次调用的延迟成本会大幅降低。曾经让人难以接受的开销,会变得可以接受。


对于优先选择 MCP 可审计性的企业来说尤为重要:更快的推理不必牺牲安全层,只是让整套工具调用栈在生产环境真正可行。


https://artificialanalysis.ai/models/glm-4-7/providers


方向二:安全的代码执行

另一个方向是安全代码执行。运行智能体生成的代码,本质是在安全与速度之间做权衡。


Pydantic 推出的 Monty—— 一个用 Rust 编写的极简 Python 解释器 —— 选择了另一条路:最小化执行域。它不启动容器,也不暴露完整运行时,只执行智能体真正需要的逻辑:

  • 无文件系统访问

  • 无网络调用

  • 无环境变量,除非显式授权

  • 仅在外部调用需要授权时暂停


因为解释器极度精简,提示注入的攻击面也大幅缩小。

启动时间低至 0.06 毫秒,对比之下:Docker 为 195 毫秒,通用沙箱服务超过 1000 毫秒。


当然,Monty 仍处于实验阶段,仅支持部分 Python 子集,暂无第三方库支持,暂不适合生产。但它已经给出了清晰可行的演进方向。


https://modelcontextprotocol.io/docs/getting-started/intro

https://github.com/pydantic/monty


/ 04

这些优化对 MCP 和 CLI 同样有利

围绕 MCP vs CLI 的痛点都是真实存在的:Token 开销大、执行链路慢、运行智能体代码有风险…… 这些并无争议。但很大一部分性能提升空间,其实在于推理基础设施与执行环境,而不只是协议本身。而且这类优化并非 MCP 专属,CLI 同样可以受益。


/ 05

重新理解这场取舍

Perplexity 是基于现实约束做出的务实选择,很多转向 CLI 的团队也是如此:因为 MCP 太慢了。与此同时,也有大量团队坚定留在 MCP 生态中。


基于各自的业务需求,两种选择都合理。


在 MCP 与 CLI 的争论持续之际,抛开协议本身,推理基础设施与代码执行环境同样值得行业重点关注。

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询