作者:David & Daniil Liberman | Gonka 协议联合创始人
编译:Gonka.ai
前言:当一个被公认为技术实力最强的去中心化AI团队公开退出网络,并直言其为披着去中心化外衣的中心化控制时,整个行业不应将其简单归结为一场双边纠纷。这是一次诊断——一次揭示整个去中心化AI生态结构性问题的警钟。而这场诊断,远不止于Bittensor。
一、究竟发生了什么?
Covenant AI(前身为Templar)花了超过两年时间,构建了迄今为止去中心化AI领域最具技术意义的里程碑:Covenant-72B ——一个拥有720亿参数的语言模型。该模型在超过70个独立贡献者、基于通用硬件上无许可地完成训练。
这不是概念验证,而是可投入生产的重大突破。这一成果获得了英伟达CEO在“All-In”播客中的公开认可,也被Anthropic联合创始人引用。它曾推动Bittensor的TAO代币上涨90%,多个子网估值逼近15亿美元。
然而,就在这一繁荣之后,支撑这一切的基础设施却反过来成为了攻击他们的武器。
根据Covenant AI的公开声明,Bittensor创始人Jacob Steeves(化名Const)单方面采取了多项措施:
- 暂停向Covenant子网发放代币奖励;
- 剥夺其对社区频道的管理权限;
- 未经协商废弃其子网基础设施;
- 利用代币销售作为运营冲突期间的施压工具。
Covenant AI一针见血地指出:这是“中心化控制,披着去中心化外衣”。
消息公布后数小时内,TAO代币暴跌逾15%。截至发稿,当日仍下跌约9%。
对此,Steeves回应称,Bittensor即将上线真正独立运行的子网。但这一回应恰恰印证而非反驳了核心问题:当Covenant全力投入建设时,他们所需的“独立性”尚未在架构上得到保障。
二、结构性陷阱:价值人质困境
要理解此事为何远超个案,我们必须看清其背后特有的经济结构——正是这种结构让危机变得既危险又可预测。
去中心化AI网络面临一个根本性的“冷启动难题”:构建真实基础设施——训练任务、模型权重、贡献者网络、社区信任——需要持续数月乃至数年的长期投入。这种投入以时间、资本和声誉为代价。但最终捕获这些价值的代币,却属于整个网络,而非建设者本人。
这就形成了我们称之为“价值人质(value-hostage)”的动态机制:
你建得越好,网络代币就越升值;代币越升值,掌握控制权的人对你施加影响的能力就越强。而当你成果最辉煌的那一刻,也正是你最脆弱的时候。
在他人网络上创造价值,就意味着你所创造的价值最终可能变成对付你的武器。你越成功,失去的就越多。
这并非Bittensor独有的治理失败,而是所有系统的一个结构性后果:当少数人仍保留对关键权限(如代币发放、内容审核、基础设施升级)的否决权,却对外宣称系统是“无许可”的,问题便已埋下。
“去中心化”这一承诺是系统运作的基础——建设者、矿工、验证者、投资者都基于此做出决策。一旦这个前提被证伪或仅“有条件成立”,造成的经济损失将不仅限于当事团队,更会蔓延至所有曾信任该叙事的参与者。
Covenant AI指出,Bittensor的治理结构名义上是“三人共管”的多重签名机制,实则由一人主导,其余两人更多是法律防火墙,而非真正参与治理的决策者。
我们无法独立核实每一项指控。但我们能看清其背后的结构性逻辑:
- 一个由单一主导者的多签,与单私钥无异;
- 可被单方面绕过的治理流程,不能称为治理;
- 可由一人决定暂停的代币发放机制,本质是补贴,而非协议保障。
三、这不是Bittensor的问题,而是行业的通病
有人会将Covenant AI事件解读为“Bittensor个案警示”。这种看法过于狭隘,甚至具有误导性。
更深层的问题在于:整个去中心化AI领域,长期在两个难以兼得的目标之间维持脆弱平衡——快速迭代与真正的去中心化。
快速迭代需要有人拍板决策;真正的去中心化则意味着无人可单方面决定一切。大多数项目默认选择了后者:公开说去中心化,手里握紧控制权,只希望矛盾永远不被暴露。
而现在,它暴露了。
在当前去中心化AI生态中,一种熟悉的模式反复出现:
去中心化的外壳——代币分发、社区论坛、治理提案;
包裹着中心化的内核——创始团队或基金会牢牢掌控最关键参数:
- 代币释放节奏
- 协议升级权限
- 子网准入机制
- 社区管理权
这不一定是出于恶意。早期网络确实需要强协调,而复杂AI基础设施的纯链上治理在技术上尚未解决。但宣传承诺与实际权力之间的落差,形成了一种“结构性债务”。
Covenant AI的遭遇,正是这笔债务到期时的模样。
在AI网络中,这种机制的危险性比DeFi或Layer1更为深刻,原因在于:建设者的投入深度远超以往。
训练一个720亿参数的模型,不是两周的冲刺项目,而是一场耗资巨大、耗时漫长、押上声誉的长期战役。等到Covenant AI意识到治理问题的严重性时,他们已经完成了最核心的工作——而这也正是他们成为目标的原因。
这种不对称极为残酷:
- 网络可以在任何时候出手;
- 建设者却无法“撤回”已经完成的建设。
只要满足以下三个条件,类似事件就会重演:
1. 建设者需投入大量时间与资源;
2. 代币能捕获这些投入的价值;
3. 少数人仍可单方面干预治理。
而这三个条件,在当前AI网络中极为普遍。
因此,我们不应期待“下一个Covenant AI”会更少——而应预期它会更多。
四、真正的去中心化需要什么?
面对此类事件,行业常陷入两种极端反应:
一种是不加批判地赞美任何自称“去中心化”的项目;
另一种则是彻底否定去中心化的可行性,将其视为骗局。
两者皆不可取。
我们想明确一点:在AI基础设施中实现真正的去中心化,技术上极其困难。任何告诉你“很容易”的人,大概率没真正尝试过。
- 跨地域节点协同训练
- 计算工作的可验证性
- 抗操纵的代币激励机制
这些仍是未解或部分解决的难题。一个诚实的行业应承认这一点。
但技术难度不等于不可能,更不能成为误导性宣传的借口。
我们提出一个简单却锋利的标准:你所依赖的基础设施,能否被用来对付你?
如果答案是“可以”,那么无论白皮书如何描绘,无论是否有治理投票,这种去中心化都是表面的。
这个问题能穿透所有噪音。它不关心你有没有DAO,也不看你有没有社区论坛。它只问一个现实问题:当发生冲突时,有没有一小撮人能单方面暂停你的奖励、切断你的访问、或用经济手段胁迫你?
如果有,那么“去中心化”的宣称,无论初衷多么真诚,都缺乏结构性支撑。
真正的出路,是将去中心化的约束内置于协议层,而非依赖任何个人或团体的“善意”。
这意味着:
- 代币发放机制由链上规则决定,不可单方面暂停;
- 协议升级需多方真实共识,而非形式主义;
- 治理结构中,实际贡献者(建设者、算力提供者、验证者)拥有与其贡献相匹配且受保护的话语权。
这更难构建,迭代更慢,短期可能显得低效。但唯有如此,才能让“无许可建设”这一承诺真正可信。
例如,采用工作量证明(PoW)模型分配算力资源,可建立一种与贡献直接挂钩的治理权重:一单位算力一票。它不依赖资本持有量,也不依赖创始团队的主观判断。它将权力锚定在无法被中心化制造或撤销的事物上——可验证的计算工作本身。
这不能解决所有治理问题,但它提供了一个抗审查、抗操纵的起点。
五、Covenant AI证明了什么?未来又该走向何方?
我们不应让治理失败掩盖其技术成就。Covenant-72B是真实的突破。
在超过70个独立节点、通用硬件、无中心化基础设施的情况下完成720亿参数模型的训练——在Covenant AI做到之前,这被广泛认为不可能。
他们证明了:去中心化训练在技术上是可行的。
之后网络背叛了他们,但这无法抹去这一事实。
真正的问题因此被推向下一阶段:既然我们已知技术可行,如何设计出能让这种模式长期持续的治理结构?
如何让像Covenant AI这样有能力的团队,在投入数年心血后,仍能确信:他们所依赖的基础设施,不会反过来成为攻击他们的武器?
Covenant AI表示,他们将继续在Bittensor之外推进工作。这在某种意义上是对的。
去中心化AI训练不是Bittensor的专属功能,而是一种独立于任何单一网络的技术能力。子网可以消亡,但技术不会。
但行业不能止步于“吸纳那些逃离糟糕治理的优秀团队”。
我们必须构建出无需逃离的治理结构。
Covenant AI事件,是一次代价高昂的“概念验证”——
它验证的不是去中心化训练(那已被证实),
而是当治理设计落后于技术野心时,会发生什么。
这一教训清晰可见,只待有人真正倾听。
问题是:整个行业,准备好面对它了吗?

