作者:Haotian
有朋友说,诸如 #ai16z、$arc 等web3 AI Agent标的的持续阴跌是由最近爆火的MCP 协议造成的?乍一听,整个人有点懵,WTF有关系吗?但细想之后发现,真有一定的逻辑:已有web3 AI Agent的估值定价逻辑变了,叙事方向和产品落地路线亟需调整。以下,谈谈个人观点:
1)MCP(Model Context Protocol)是一个旨在让各类AI LLM/Agent 无缝连接到各种数据源和工具的开源标准化协议,相当于一个即插即拔USB“通用”接口,取代了过去要端到端“特定”封装方式。
简单而言,原本AI应用之间都有明显的数据孤岛,Agent/LLM之间要实现互通有无则需要各自开发相应的调用API接口,操作流程复杂不说,还缺乏双向交互功能,通常都有相对有限的模型访问和权限限制。
MCP的出现等于提供了一个统一的框架,让AI应用可以摆脱过去的数据孤岛状态,实现“动态”访问外部的数据与工具的可能性,可以显著降低开发复杂性和集成效率,且在自动化任务执行、实时数据查询以及跨平台协作等方面。说到此,很多人立马想到了,如果用多Agent协作创新的Manus集成此能促进多Agent协作的MCP开源框架,是不是就无敌了?
没错,Manus + MCP 才是web3 AI Agent此番遭受冲击的关键。
2)但,匪夷所思的是,无论Manus还是MCP都是面向web2 LLM/Agent 的框架和协议标准,其解决的都是中心化服务器之间的数据交互和协作的问题,其权限和访问控制还依赖各个服务器节点的“主动”开放,换句话来说,它只是一种开源工具属性。
按理说,它和web3 AI Agent追求的“分布式服务器、分布式协作、分布式激励”等等中心思想完全背离,中心化的意大利炮怎么能炸掉去中心化的碉堡呢?
究其原因在于,第一阶段的web3 AI Agent太过于“web2化”了,一方面源于不少团队都来自web2背景,对web3 Native的原生需求缺乏充分的理解,比如,ElizaOS框架最初就是一个,帮助开发者快捷部署AI Agent应用的封装框架,恰恰就是集成了Twitter、Discord等平台和一些OpenAI、Claude、DeepSeek等 API接口,适当封装了一些Memory、Charater通用框架,帮助开发者快速开发落定AI Agent应用。但较真的话,这套服务框架和web2的开源工具有何区别呢?又有什么差异化优势呢?
呃,难道优势就是有一套Tokenomics激励方式?然后用一套web2可以完全取代的框架,激励一批更多为了发新币而存在的AI Agent?可怕。。顺着这个逻辑看,你就大概明白,为何Manus +MCP能够对web3 AI Agent产生冲击?由于一众web3 AI Agent框架和服务只解决了类同web2 AI Agent的快捷开发和应用需求,但在技术服务和标准和差异化优势上又跟不上web2的创新速度,所以市场/资本对上一批的web3的AI Agent进行了重新估值和定价。
3)说到此,大致的问题想必找到症结所在了,但又该如何破局呢?就一条路:专注于做web3 原生的解决方案,因为分布式系统的运转和激励架构才是属于web3绝对差异化的优势?
以分布式云算力、数据、算法等服务平台为例,表面上看似这种以闲置资源为由头聚合起来的算力和数据,短期根本无法满足工程化实现创新的需要,但在大量AI LLM正在拼集中化算力搞性能突破军备竞赛的时候,一个以“闲置资源、低成本”为噱头的服务模式自然会让web2的开发者和VC天团不屑一顾。
但等web2 AI Agent过了拼性能创新的阶段,就势必会追求垂直应用场景拓展和细分微调模型优化等方向,那个时候才会真正显现web3 AI资源服务的优势。事实上,当以资源垄断方式爬上巨头位置上的web2 AI到一定阶段,很难再退回来用农村包围城市的思想,逐个细分场景击破,那个时候就是过剩web2 AI 开发者+ web3 AI 资源抱团发力的时候。
所以,现在web3 AI Agent的机会空间也很清晰了:在web3 AI 资源平台拥有溢出的web2开发者需求客户前,探索践行出一套非web3分布式架构不可的可行解决方案和路径来。事实上,web3 AI Agent除了web2的那套快捷部署+多Agent协作通信框架外+Tokenomic 发币叙事之外,有很多web3 Native的创新方向值得去探索:
比如,配备一套分布式共识协作框架,考虑到LLM大模型链下计算 +链上状态存储的特性,需要诸多适配性的组件。
1、一套去中心化的DID身份验证系统,让Agent能够拥有可验证的链上身份,这像执行虚拟机为智能合约生成的唯一性地址一样,主要为了后续状态的持续追踪和记录;
2、一套去中心化的Oracle预言机系统,主要负责链下数据的可信获取和验证,和以往Oracle不同的是,这套适配AI Agent的预言机可能还需要做包括数据采集层、决策共识层、执行反馈层多个Agent的组合架构,以便于Agent的链上所需数据和链下计算和决策能够实时触达;
3、一套去中心化的存储DA系统,由于AI Agent运行时的知识库状态存在不确定性,且推理过程也较为临时性,需要一套把LLM背后的关键状态库和推理路径记录下来存储于分布式存储系统中,并提供成本可控的数据证明机制,以确保公链验证时的数据可用性;
4、一套零知识证明ZKP隐私计算层,可以联动包括TEE时、FHE等在内的隐私计算解决方案,实现实时的隐私计算+数据证明验证,让Agent可以有更广泛的垂直数据来源(医疗、金融),继而on top之上有更多专业定制化的服务Agent出现;
5、一套跨链互操作性协议,有点类似于MCP开源协议定义的框架,区别在于这套Interoperability解决方案,需要有适配Agent运行、传递、验证的relay和通信调度机制,能够完成Agent在不同链间的资产转移和状态同步问题,尤其是包含Agent上下文和Promopt、知识库、Memory等复杂的状态等等;
……
在我看来,真正的web3 AI Agent的攻克重点应该在于如何让AI Agent的“复杂工作流”和区块链的“信任验证流”如何尽可能契合。至于这些增量解决方案,由已有的老叙事项目升级迭代而来,还是由新构成的AI Agent叙事赛道上的项目重新铸就,都有可能性。
这才是web3 AI Agent应该努力Build的方向,才是符合AI +Crypto大宏观叙事下的创新生态基本面。若不能有相关的创新开拓和差异化竞争壁垒建立,那么,每一次web2 AI 赛道的风吹草动,都可能搅得web3 AI天翻地覆。
声明:本文由入驻金色财经的作者撰写,观点仅代表作者本人,绝不代表金色财经赞同其观点或证实其描述。
提示:投资有风险,入市须谨慎。本资讯不作为投资理财建议。
W3C DAO
New Economist
比推 Bitpush News
金色图览