MCP协议的Token税争议,暴露了更大的问题
最近AI圈有件事值得聊聊。Perplexity公开表示因MCP协议的Token消耗问题弃用了这套方案,引发了不小的讨论。MCP不是被称为"AI世界的USB-C"吗?怎么连头部产品都用不下去?
Token税到底是什么
先把事情说清楚。MCP协议的设计理念没问题——让AI模型通过统一接口连接各种工具和数据源。但实际运行中有个隐性成本:每次AI要调用一个工具,往往需要先经过大模型推理来判断"该不该调、怎么调"。这一轮推理本身就在烧Token。
举个通俗的例子。你让AI助手帮你查日历,理想情况是AI直接读日历接口就行。但MCP的实际流程是:AI先"想一想"要不要查、用什么方式查,这个"想"的过程就消耗了Token。工具调用本身可能只需要几个Token,但前置推理可能花掉几十倍。这就是所谓的Token税。
Perplexity的弃用并非否定MCP的价值,而是算了一笔账:当你的产品核心就是高频调用工具,每一次调用都带着这层推理成本,规模一大就扛不住了。
问题比Token税更深
但如果只盯着Token税看,就错过了更本质的问题。
企业用AI真正缺的不是接口。市面上各种协议、SDK、插件系统已经够多了。真正缺的是一个确定性的执行环境——AI做出决策后,后续的执行路径是可预期的、低损耗的、不需要反复"想"的。
打个比方。你公司请了个非常聪明的项目经理(大模型),他能做出完美的计划。但每执行一步,他都要重新开个会讨论"下一步该干嘛",这个会议本身就在消耗大量时间和资源。效率不是输在计划上,是输在执行链路上。
MCP解决了"连接"的问题,但没有解决"执行"的问题。这才是Perplexity弃用背后的真实逻辑。
确定性执行才是关键
行业里已经有人在往这个方向走了。核心思路是把常见的操作封装成确定性指令,让AI不需要每次都经过完整推理就能直达执行层。
比如AREE的做法:把"读取文件""查询数据库""发送消息"这些高频操作预封装成标准化指令,AI识别意图后直接触发,跳过中间的推理环节。Token消耗因此大幅下降。
JBoltAI最近也在做类似的事情。他们的思路是把MCP的工具调用能力、Function Call机制和指令直达协议结合起来。具体来说:
- MCP测试工具用来验证工具连通性,确保接口层面没问题
- Function Call负责AI的决策层,判断该调用什么
- MCP指令直达则负责执行层,让调用路径尽可能短
三者配合的逻辑是:决策该走推理走推理,执行该走直通道走直通道。不是所有操作都需要大模型"想一遍",很多场景下确定性指令就够了。
对企业意味着什么
如果你是企业AI的负责人,这件事的启示很实际:
选型时别只看协议支持多少工具。要看执行链路的Token效率。同样接入GitHub、Slack、数据库,不同方案的实际消耗可能差一个数量级。
架构上要把"决策"和"执行"分开考虑。决策层用大模型没问题,但执行层应该尽量走确定性路径。这不是某一个产品能解决的,需要在整体架构上做规划。
MCP作为连接标准依然有价值,但它只是拼图的一块。真正让企业AI跑起来的,是从意图识别到最终执行的整条链路都经过了优化。
Token税的争议不会是最后一个。当AI应用从demo走向生产,执行效率的问题只会越来越突出。接口标准化解决了"能不能连"的问题,接下来要解决的是"连了之后怎么跑得起"的问题。
