作者:Haotian 加密观察员 来源:X(原推特)@tmel0211
Blast的多签安全风险仍然备受诟病,连铁顺的段子都传遍了,然而这并没有影响Blast_L2的总锁仓价值(TVL)持续上涨。理性的认知促使人们批评Blast,但趋利的本能又让人难以拒绝拥抱Blast。
接下来,撇开Blast具体的多签安全问题,从Layer 2行业的角度探讨为什么Layer 2的技术去中心化如此艰难?
首先,澄清所谓Layer 2的技术组件去中心化,包括:Sequencer、Prover、Validator、主网Rollup Contract等分布在主网和Layer 2的多个关键组件。其中,ZK-Rollup比OP-Rollup多了Prover系统,而大家主要集中在Sequencer的运营上。此外,一些区别在于数据可用性的实现程度依赖于以太坊主网的程度,以及EVM主网的等效性。
- Arbitrum表示正在与Espresso Systerm合作,探索去中心化Sequencer的可能性,目前仍处于探索阶段;
- Starknet的Prover系统实现了无许可去中心化,但Sequencer的去中心化消息尚不明确;
- Optimism将Sequencer中心化合理化,并推出OP Stack战略,试图通过共享Sequencer安全治理委员会来分散中心化权限,以社会化共识弥补技术共识缺陷;
- zkSync长时间没有核心组件的开源及去中心化迹象,推出了ZK Stack多应用链战略。按官方说法,zkSync将成为Stack战略下的一个典型应用链,也是在逃避去中心化技术上的一种无奈之举。
不难看出,四大Layer 2在核心技术组件的去中心化问题上各有考量,有的仍在讲述技术去中心化的故事,有的已经试图用Stack战略弥补纯技术去中心化存在的缺陷。总的来说,Layer 2的纯技术去中心化非常困难。为什么呢?
1)Layer 2的Sequencer通常采用了中心化的EOA地址,以节省主网交互成本。Optimism和zkSync等都采用了EOA地址,由私钥直接控制,操作更为灵活。与智能合约复杂的逻辑和功能相比,EOA结构的攻击面更小。最关键的是,这些EOA地址在与主网合约交互时可以降低成本。然而,管理私钥的最有效方式是强中心化管理。若要实现去中心化管理私钥,反而会增加系统的可攻击面。
2)Sequencer负责从Layer 2抽取手续费,通常扣除的手续费涵盖了向主网提交的批处理交易所需的成本等,这构成了Layer 2的毛收入。这使得Sequencer的控制方不愿意轻易分散权利。一旦权利过于分散,在核心激励机制和收费问题上势必会产生新的问题,例如利益分配。
3)Prover系统生成Proof并验证的过程技术门槛较高。目前,ZK-Rollup生态项目创新较少,其中一大原因是数据结构适配和ZK电路的门槛较高,对于分散的Validator而言尤为如此。一旦Validators节点过于分散,将存在处理并验证Proof的过程中的稳定性问题。
4)OP-Rollup鲜有实际的battle-tested挑战发生。这主要是因为中心化的Sequencer会使Layer 2天然趋向于乐观零挑战。在某种程度上,过于中心化的Sequencer看似是一种软肋,实际上成为了另一种安全机制。
5)如果Layer 2发生安全故障,Sequencer可以强行冻结并控制资产流出。在Layer 2进行一次低成本的硬分叉可能是一种应对手段。但如果Sequencer受到攻击呢?大量资金撤回主网,主网Rollup合约实施可升级的多签治理就是另一层双保险。因为Layer 2不可能依赖主网级别的硬分叉。
直白地说,主网进行多签治理只是为了保障Layer 2 Sequencer受到攻击时的安全。讨论多签单上是谁,是否有声望根本无意义。
目前很少听到Layer 2因过于中心化而导致的问题,主要原因是Layer 2的整体技术门槛高,创始团队的声誉良好,投资机构的支持,以及内置的特殊安全机制(挑战机制、DA等)等。这使得经营Layer 2是一个长期可持续的业务,特别是坐视整个生态崛起并持续抽取手续费才是Layer 2的终局。
如果一个Layer 2项目不谈生态,不讨论技术,却以“大家都一样”的名义,只谈论空投预期,除了Rug风险之外,首先应该质疑其是否真正是Layer 2。
总的来看,Layer 2的技术去中心化现状发展并不理想。或许在Layer 2领域,原教旨主义的技术去中心化根本不存在?从更长远的角度看,Stack战略中虚无缥缈的多链共享组件策略可能会成为剔除Layer 2中心化权力过大的唯一解。
从根本上讲,无论是技术共识还是社会共识,最终都是对恶行的一种制约力。
来源:金色财经