浅谈为什么说模块化是必然的?以及它对我们的启示

浅谈为什么说模块化是必然的?以及它对我们的启示
文章图片
免责声明:本文旨在传递更多市场信息 , 不构成任何投资建议 。 文章仅代表作者观点 , 不代表火星财经官方立场 。
小编:记得关注哦
来源:PANews
作者:李策
此前PANews在文章《Layer2之后该怎么扩容 , 深度解读Celestia的数据可用性模块》中简单介绍过什么是模块化 , 但这次希望在此基础上 , 谈谈为什么区块链需要被模块化 。
首先来复习一下模块化是什么 。 在这个概念中 , 一条公链可以被分解成安全层 , 数据可用层和执行层 。 安全层通常是承载共识的 , 也就是负责让最终交易结果上链 。 数据可用层则可以被简单理解成帮助执行层“自证清白” , 防止执行层作恶的 。 我们常挂在嘴边的Rollup , 或者Layer2就是执行层 , 它是一个模块 , 同时也是区块链模块化的产物 , 负责执行交易 。
这三项功能原本被放到一整条公链中 , 直到链上的节点越来越多 , 区块越来越大 , 交易越来越忙不过来 , 最后的结果就是 , 不但Gas费爆炸了 , 出块速度还很慢 。 于是就有我们常说的区块链“不可能三角”理论 , 即如果用加大区块大小来提高数据流通量 , 就得拉高节点的门槛 , 淘汰掉算力不达标的节点同时 , 也降低公链的去中心化程度 。 如果想要保住去中心化 , 只有增加更多更强大的节点 , 可节点一多 , 交易速度又慢了 , 只得继续增加区块大小 , 就又回到了最开始的问题 。 这个故事有很多种讲法 , 核心是只能靠牺牲一部分来成全另一部分 , 就像Solana , 价格低 , 速度快 , 但是中心化程度高 , 它赌的是摩尔定律 , 赌算力和带宽的成本增长追不上链上交易给它带来的收入增长 。
到这里 , 模块化的必然性就已经出现了 , 现在我们甚至不必再讨论扩容的方法将会有哪些 , Layer2已经从一种可能性坍缩成了现实 , 将公链解耦的模块化就是答案 。 我们可以把上述三项功能中 , 其中至少一项单独外包出去的公链称为模块化公链 , 比如以太坊 , 它把执行层外包给了Layer2 。 也比如Polkadot和Near , 它们有分片验证的外包设计 。 而Avalanche则像一个伪模块化公链 , 它看到了模块化的好处 , 于是做了一个单片链的组合 , 也让公链的基本功能在自家门内做了解耦 , 缺憾是目前还没有做好共享安全性 。 Cardano则处在一个临时状态 , 尽管没把已经解耦的功能外包出来 , 但从路径图上看也只是时间问题了 。 这些都是公链在模块化上所做的尝试 , 而模块化的最终愿景可能是Celestia与Evmos合作的那样——一个Rollup套娃 , 具体在开头所提文章中有展开阐述 。 所以 , 长远来看 , 模块化是公链扩容的必经之路 , 即便是“反对模块化”的Near其实反对的也只是“别人来做我的模块” , 因为它要“我自己做我的模块” 。
浅谈为什么说模块化是必然的?以及它对我们的启示
文章图片
目前不仅执行层在模块化之后的成就有目共睹(Arbitrum和Optimism的体验明显好过Solana或是Fantom这类的Layer1公链 , 因为前者只需要一个算力足够强的节点来做Sequencer就够了 , 而后者哪怕是牺牲了去中心化来提升节点性能 , 也需要至少21个节点来做Sequencer) , 数据可用性也因此需要和执行层解耦 。 只有这样 , 当Layer2出问题时 , 用户才能借助数据可用性来提出“挑战”(针对OP)或是强行把自己的资产从Layer2上拉回Layer1(针对ZK) 。 这样的一个数据可用层 , 放在Layer2上(或是Layer2提供的链下第三方验证机构) , 你会不放心 。 放在Layer1上 , 你会心疼钱 。 分片并且放在一个单独的链上 , 随用随取 , 可能是目前最好的答案 。 这就是模块化开始快速发展的背景 , 长期趋势仍在酝酿 , 短期痛点已然出现 。