那些你不得不知的:区块链“大”数据悖论!

不可篡改性是区块链最重要的特性之一。虽然大部分人对不可篡改的特性都持积极肯定的态度,但这一特性也给区块链带来了一些麻烦:数据体量过大。随着时间的不断推移,区块链应用的持续落地,这些数据会更多,链也会更长。

我们就以比特币为例,过去两年内,比特币的链上数据显著增长,目前每天新生产数据的增长率就达到0.1353G。

众所周知,比特币的总量固定在两千一百万,挖矿奖励差不多每四年减半一次,且会一直持续到2140年。如果我们按照过去两年里比特币链上数据的增长率进行估算,那么比特币全网的数据量会超过6TB。

而其他公链的链上数据积累速度则更快。以太坊去年的链上数据量暴增,增长率达到0.2279G/天,远远高于比特币的增长速度。如果按照这一速度去估算,到2140年,以太坊的数据总量会达到10TB。

但这么多数据会造成哪些影响呢?

去中心化的机制让区块链得以透明,分布在全球的节点会对交易进行验证,而每一个网络里的见证节点都必须同步账本上所有的数据。但随着数据总量的不断增加,每一个节点储存的数据也在上升。即使只是同步几百G的数据,也对网络的稳定性以及硬盘的读写性能有极高的要求。

这也就解释了为什么如今的挖矿中心化趋势越来越明显。目前,如果你用个人电脑去做全节点同步,比特币网络需要一个月的时间,以太坊也至少需要一周。

比特币的节点地图

漫长的同步过程会占据个人电脑的大部分算力,也说明同步全节点的代价很高,今后还会更高。未来,节点的门槛会越来越高,有能力成为见证节点的人也越来越少。这一趋势会减慢节点数量的增长,导致算力和挖矿设备的集中化和中心化,从而背离去中心化和点对点的初衷。

但另一方面,矿工抱团和算力中心化让从业者渡过行业寒冬,让整个行业得以延续。如果矿工在寒冬里纷纷离场,会导致网络算力下降,引起各种问题:网络会变得脆弱,容易遭受攻击;待确认交易增多,转账缓慢;用户体验下降,失去活力。

从某种程度上来说,这也是困扰各个行业的不可能三角。能否在效率和公平间取得平衡,或许是区块链行业要正视的问题。

猜你喜欢

转载自blog.csdn.net/lin000001/article/details/87095621