MCP:驱动下一代 Web3 AI Agent 的核心引擎

MCP 的真正价值与潜力,只有在 AI Agent 将其集成并转化为具有实用性的应用,才能被真正看见。

撰文:Frank Fu @IOSG

MCP 正在迅速占据 Web3 AI Agent 生态的核心地位,它通过类似插件的架构,引入 MCP Server,赋予 AI Agent 新的工具和能力。

与 Web3 AI 领域其他新兴叙事(如 vibe coding)类似,MCP,全称为 Model Context Protocol,起源于 Web2 AI,现在正在 Web3 语境下被重新构想。

什么是 MCP?

MCP 是由 Anthropic 提出的一个开放协议,用于标准化应用程序如何向大语言模型(LLMs)传递上下文信息。这使得工具、数据与 AI Agent 之间能够更无缝地协作。

为什么它很重要?

当前大语言模型面临的核心限制包括:

  • 无法实时浏览互联网

  • 无法直接访问本地或私人的文件

  • 无法自主与外部软件交互

MCP 通过充当通用接口层,弥补了上述能力空缺,使 AI Agent 能够使用各种工具。

你可以将 MCP 类比为 AI 应用领域的 USB-C —— 统一接口标准,让 AI 更容易对接各种数据源和功能模块。

设想每个 LLM 是不同的手机 —— Claude 用的是 USB-A,ChatGPT 用 USB-C,而 Gemini 是 Lightning 接口。如果你是硬件厂商,就得为每种接口都开发一套配件,维护成本极高。

这正是 AI 工具开发者所面临的问题:为每一个 LLM 平台定制插件,极大增加了复杂性并限制了规模化扩展。MCP 就是为了解决这一问题,通过建立统一的标准,就像让所有 LLM 和工具商都使用 USB-C 接口。

这种标准化协议对双方都有利:

  • 对 AI Agent(客户端):可以安全地接入外部工具与实时数据源

  • 对工具开发者(服务端):一次接入,跨平台可用

**结果是一个更开放、可互操作、低摩擦的 AI 生态系统。

MCP 与传统 API 有什么不同?

API 的设计是为人类服务的,并非 AI-first。每个 API 都有各自的结构和文档,开发者必须手动指定参数、阅读接口文档。而 AI Agent 本身无法阅读文档,必须被硬编码以适配每种 API(如 REST、GraphQL、RPC 等)。

MCP 通过标准化 API 内部的函数调用格式,抽象掉这些非结构化的部分,为 Agent 提供统一的调用方式。你可以把 MCP 看作是为 Autonomous Agent 封装的 API 适配层。

当 2024 年 11 月 Anthropic **推出 MCP 时,开发者需在本地设备上部署 MCP 服务器。而今年 5 月,Cloudflare 在其开发者周宣布,开发者可在 Cloudflare Workers 平台上以**设备配置直接部署远程 MCP 服务器。这大大简化了 MCP 服务器的部署和管理流程,包括认证和数据传输,堪称「一键部署」。

尽管 MCP 本身还是看似不够「吸引人」,但是它绝非无足轻重。作为纯粹的基础设施组件,MCP 无法直接面向消费者使用,只有当上层的 AI 代理调用 MCP 工具并展现实际效果时,其价值才会真正显现。

Web3 AI x MCP 生态图景 Landscape

Web3 中的 AI 同样面临「缺乏上下文数据」和「数据孤岛」的问题,也就是说,AI 无法访问链上实时数据或原生执行智能合约逻辑。

过去,ai16Z、ARC、Swarms、Myshell 等项目试图构建多 Agent 协同网络,但**由于依赖**化 API 和定制集成,陷入了「重复造轮子」的困境。

每对接一个数据源都要重写适配层,导致开发成本激增。为了解决这一瓶颈,下一代 AI Agent 需要一种更模块化、乐高式的架构,以便于无缝集成第三方插件和工具。

于是,基于 MCP 和 A2A 协议的新一代 AI Agent 基础设施和应用正在兴起,专为 Web3 场景设计,让 Agent 能够访问多链数据,并原生交互 DeFi 协议。

▲ 来源:IOSG Ventures

(此图并不**覆盖所有 MCP 相关 Web3 项目)

项目案例:DeMCP 与 DeepCore

DeMCP 是一个去**化 MCP Server 的市集 (https://git**.com/modelcontextprotocol/servers) ,专注于原生加密工具与确保 MCP 工具的主权。

其优势包括:

  • 使用 TEE(可信执行环境)来确保 MCP 工具未被篡改

  • 使用 **激励机制,鼓励开发者贡献 MCP 服务器

  • 提供 MCP 聚合器与微支付功能,**使用门槛

另一个项目 DeepCore (deepcore.top) 也提供 MCP Server 注册系统,专注于加密领域,并进一步扩展到 Google 提出的另一开放标准:A2A(Agent-to-Agent)协议 (https://x.com/i/trending/1910001585008058782)。

A2A 是 Google 在 2025 年 4 月 9 日宣布的一项开放协议,旨在实现不同 AI 代理(Agent)之间的安全通信、协作和任务协调。A2A 支持企业级 AI 协作,例如让不同公司的 AI 代理协同处理任务(如 Sale**orce 的 CRM 代理与 Atlassian 的 Jira 代理合作)。

若 MCP 关注的是 Agent(客户端)与工具(服务端)之间的交互,那么 A2A 更像是 Agent 之间的协作中间层,让多个 Agent 无需共享内部状态,即可协同完成任务。它们通过上下文、指令、状态更新、数据传递进行协作。

A2A 被认为是 AI 代理协作的「通用语言」,推动跨平台、跨云的 AI 互操作性,可能改变企业 AI 的工作方式。因此,可以把 A2A 看作是 Agent 世界的 Slack —— 一个 Agent 发起任务,另一个 Agent 执行。

简言之:

  • MCP:为 Agent 提供工具访问能力

  • A2A:为 Agent 提供彼此协同的能力

为什么 MCP 服务器需要区块链

MCP Server 集成区块链技术有多种好处:

1. 通过加密原生激励机制获取长尾数据,鼓励社区贡献稀缺数据集

2. 防御「工具投毒」攻击,即恶意工具伪装成合法插件误导 Agent

  • 区块链提供加密验证机制,如 TEE Remote Attestation、ZK-SNARK、FHE 等

  • 具体可以参考此文章 (https://ybbcapital.substack.com/p/from-suis-sub-second-mpc-network?utm_source=substack&utm_medium=email)

3. 引入质押 / 惩罚机制,结合链上声誉系统构建 MCP 服务器的信任体系

4. 提升系统容错性与实时性,避免 Equifax 等**化系统的单点故障

5. 促进开源创新,允许小型开发者发布如 ESG 数据源等,丰富生态多样性

目前,大多数 MCP Server 基础设施仍通过解析用户自然语言提示词来进行工具匹配。未来,AI Agent 将能够自主搜索所需 MCP 工具,以完成复杂任务目标。

不过,目前 MCP 项目仍处于早期阶段。多数平台仍是**化插件市场,由项目方手动从 GitHub 整理第三方 Server 工具并自研部分插件,本质上与 Web2 插件市场并无太大差异,**的区别是聚焦 Web3 场景。

未来趋势与行业影响

当前,越来越多的加密行业人士开始意识到 MCP 在连接 AI 与区块链之间的潜力。例如,Binance 创始人 CZ 最近公开呼吁 AI 开发者积极构建高质量 MCP Server,为 BNB Chain 上的 AI Agent 提供更丰富的工具集。BNB MCP Server 项目列表已公开,供探索生态的用户参考。

随着基础设施的成熟,「开发者先行」公司的竞争优势也将从 API 设计转向:谁能提供更丰富、多样化、易组合的工具集。

在未来,每个应用都可能成为 MCP 客户端,每个 API 都可能是 MCP 服务器。

这样就可能催生新的价格机制:Agent 可根据执行速度、成本效率、相关性等动态选择工具,形成由 Crypto 与区块链作为媒介所赋能的一种更**的 Agent 服务经济体系。

当然,MCP 本身不直接面向终端用户,它是一个底层协议层。也就是说,MCP 的真正价值与潜力,只有在 AI Agent 将其集成并转化为具有实用性的应用,才能被真正看见。

**,Agent 是 MCP 能力的承载体与放大器,而区块链与加密机制则为这一智能网络构建起可信、**、可组合的经济系统。

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 support1012@126.com 举报,一经查实,本站将立刻删除。
标签: /
上一篇2025-05-20

相关推荐

1