有朋友說,諸如#ai16z、 arc 等web3 AI Agent標的的持續陰跌是由最近爆火的MCP 協議造成的?乍聽,整個人有點懵,WTF有關係嗎?但細想之後發現,真有一定的邏輯:已有web3 AI Agent的估價定價邏輯變了,敘事方向和產品落地路線亟需調整!以下,談個人觀點:

1)MCP(Model Context Protocol)是一個旨在讓各類AI LLM/Agent 無縫連接到各種資料來源和工具的開源標準化協議,相當於一個即插即拔USB「通用」接口,取代了過去要端到端「特定」封裝方式。

簡單而言,原本AI應用之間都有明顯的資料孤島,Agent/LLM之間要實現互通有無則需要各自開發相應的調用API接口,操作流程複雜不說,還缺乏雙向交互功能,通常都有相對有限的模型訪問和權限限制。

MCP的出現等於提供了一個統一的框架,讓AI應用可以擺脫過去的資料孤島狀態,實現「動態」存取外部的資料與工具的可能性,可以顯著降低開發複雜性和整合效率,尤其在在自動化任務執行、即時資料查詢以及跨平台協作等方面有明顯助推作用。

說到此,很多人立刻想到了,如果用多Agent協作創新的Manus整合此能促進多Agent協作的MCP開源框架,是不是就無敵了?

沒錯,Manus + MCP 才是web3 AI Agent此番遭受衝擊的關鍵。

2)但,匪夷所思的是,無論Manus或MCP都是面向web2 LLM/Agent 的框架和協定標準,其解決的都是中心化伺服器之間的資料互動和協作的問題,其權限和存取控制也依賴各個伺服器節點的「主動」開放,換句話說,它只是一種開源工具屬性。

照理說,它和web3 AI Agent追求的「分散式伺服器、分散式協作、分散式激勵」等等中心思想完全背離,中心化的義大利炮怎麼能炸掉去中心化的碉堡呢?

究其原因在於,第一階段的web3 AI Agent太過於“web2化”了,一方面源於不少團隊都來自web2背景,對web3 Native的原生需求缺乏充分的理解,比如,ElizaOS框架最初就是一個,幫助開發者快捷部署AI、Agent應用的封裝框架,恰恰是集成了Twitter、Discord等平台和一些幫助新工具定AI Agent應用。但更真的話,這套服務框架和web2的開源工具有何差別呢?又有什麼差異化優勢呢?

呃,難道優勢就是有一套Tokenomics激勵方式?然後用一套web2可以完全取代的框架,激勵一批更多為了發新幣而存在的AI Agent?可怕。 。順著這個邏輯看,你大概明白,為何Manus +MCP能夠對web3 AI Agent產生衝擊?

由於一眾web3 AI Agent框架和服務只解決了類同web2 AI Agent的快速開發和應用需求,但在技術服務和標準和差異化優勢上又跟不上web2的創新速度,所以市場/資本對上一批的web3的AI Agent進行了重新估值和定價。

3)說到此,大致的問題想必找到癥結所在了,但又該如何破局呢?就一條路:專注於做web3 原生的解決方案,因為分散式系統的運作與激勵架構才是屬於web3絕對差異化的優勢。

以分散式雲算力、數據、演算法等服務平台為例,表面上看似這種以閒置資源為由頭聚合起來的算力和數據,短期根本無法滿足工程化實現創新的需要,但在大量AI LLM正在拼集中化算力搞性能突破軍備競賽的時候,一個以“閒置資源、低成本”為會讓web天團的服務模式自然一屑。

但等web2 AI Agent過了拼性能創新的階段,就勢必會追求垂直應用場景拓展和細分微調模型優化等方向,那時才會真正顯現web3 AI資源服務的優勢。

事實上,當以資源壟斷方式爬上巨頭位置上的web2 AI到一定階段,很難再退回來用農村包圍城市的思想,逐個細分場景擊破,那個時候就是過剩web2 AI 開發者+ web3 AI 資源抱團發力的時候。

事實上,web3 AI Agent除了web2的那套快速部署+多Agent協作通訊框架外+Tokenomic 發幣敘事之外,還有很多web3 Native的創新方向值得去探索:

例如,配備一套分散式共識協作框架,考慮到LLM大模型鏈下運算+鏈上狀態儲存的特性,需要許多適配性的元件。

1.一套去中心化的DID身份驗證系統,讓Agent能夠擁有可驗證的鏈上身份,這像執行虛擬機為智能合約生成的唯一性地址一樣,主要為了後續狀態的持續追蹤和記錄;

2.一套去中心化的Oracle預言機系統,主要負責鏈下數據的可信獲取和驗證,和以往Oracle不同的是,這套適配AI Agent的預言機可能還需要做包括數據採集層、決策共識層、執行反饋層多個Agent的組合架構,以便於Agent的鏈上所需數據和鏈下計算和決策和決策制定決策和決策;

3.一套去中心化的儲存DA系統,由於AI Agent運作時的知識庫狀態存在不確定性,且推理過程也較為臨時性,需要一套把LLM背後的關鍵狀態庫和推理路徑記錄下來儲存於分散式儲存系統中,並提供成本可控的資料證明機制,以確保公鏈驗證時的資料可用性;

4.一套零知識證明ZKP隱私計算層,可以連動包括TEE時、FHE等在內的隱私計算解決方案,實現實時的隱私計算+數據證明驗證,讓Agent可以有更廣泛的垂直數據來源(醫療、金融),繼而on top之上有更多專業定制化的服務Agent出現;

5.一套跨鏈互通協議,有點類似MCP開源協定定義的框架,差別在於這套Interoperability解決方案,需要有適配Agent運作、傳遞、驗證的relay和通訊調度機制,能夠完成Agent在不同鏈間的資產轉移和狀態同步問題,尤其是包含Agent上下文和Prompt、知識庫、Memory等複雜的狀態等等;

……

在我看來,真正的web3 AI Agent的攻克重點應該在於如何讓AI Agent的「複雜工作流程」和區塊鏈的「信任驗證流程」如何盡可能契合。至於這些增量解決方案,由現有的老敘事項目升級迭代而來,還是由新構成的AI Agent敘事賽道上的項目重新鑄就,都有可能性。

這才是web3 AI Agent應該努力Build的方向,才是符合AI +Crypto大宏觀敘事下的創新生態基本面。若無法有相關的創新開拓與差異化競爭壁壘建立,那麼,每一次web2 AI 賽道的風吹草動,都可能攪得web3 AI天翻地覆。