长推:数据可用性(DA) 怎样事情以及各有何不同?
免责声明:本文旨在转达更多市场信息,不构成任何投资发起。文章仅代表作者看法,不代表MarsBit官方态度。
小编:记得眷注哦
泉源:MarsBit
注:本文来自@expctchaos推特,其是@ChaosDAO的研讨员,原推文内容由MarsBit整理如下:
0/ 数据可用性(DA)是主要的扩展瓶颈
侥幸的是,@CelestiaOrg,@AvailProject和@eigenlayer将改动DA游戏,并完成新的可扩展性
但它是怎样事情的,#EigenDA与#Celestia和#Avail等DA 15有何不同?
1/ 假如你不熟习数据可用性成绩,请查察我底下的帖子,此中我具体先容了数据可用性情况??
https://twitter.com/expctchaos/status/1535698402939265025
2/ 总的来说,数据处了处理方案主要有两品种型
??链上DA
??链下DA
3/ 而“纯好效性验证”意味着数据处理可以在没有确保的情况下下链,由于链下数据办事提供商可以随时下线……
4/ …#StarkEx, #zkPorter和#Arbitrum Nova是依托于DAC的验证场景的例子,DAC是一个由着名第三方构成的小组来确保数据的可用性
5/ 另一方面,#EigenDA, @CelestiaOrg和@AvailProject是我们可以称之为通用DA处理方案
但是,EigenDA和其他两种处理方案之间存在一些区别
6/ 假如你想晓得@CelestiaOrg是怎样事情的,请查察底下的链接
https://twitter.com/expctchaos/status/1535970188012572672
7/ 我已往也先容过@AvailProject,以是要了解更多信息,请查察这里
https://twitter.com/expctchaos/status/1537459186421772288
8/ 假如你必要复习@eigenlayer,请查察以下线程??
https://twitter.com/expctchaos/status/1601921935662731265
9/ 以是在今天的帖子中,我们想把重点放在@eigenlayer的#EigenDA和DA L1链(如@CelestiaOrg或@AvailProject)之间的比力上
10/ 让我们假定一个基于以太坊并使用Celestia举行 DA(别名 Celestium)的rollup
因此,以太坊上的L2合约像往常一样验证好效性证实或敲诈证实,而DA由Celestia提供
11/ 在@CelestiaOrg和@AvailProject上,没有智能合约或盘算,只确保数据可用
12/ 但是让我们仔细看看
在@CelestiaOrg上,tx数据由L2排序器公布到Celestia, Celestia验证者签署DA证实的默克尔根,随后发送到以太坊上的DA桥接合约举行验证和存储
13/ 与在链上存储DA比拟,这大大低落了拥有强壮DA确保的本钱,同时也提供了来自Celestia的宁静确保(而不是中央化的DAC)
14/ 本钱低落方面将改动整个rollup范畴的游戏端正,由于将数据公布到以太坊L1所产生的calldata本钱占rollup用度的80-90%
有关calldata本钱的更多信息,请查察底下的帖子??
https://twitter.com/expctchaos/status/1661794274206445569
15/ 但是在#Celestia上毕竟产生了什么?
将公布到@CelestiaOrg的数据blob (基本上作为原始数据)经过P2P网络转达,并且使用Tendermint共鸣告竣关于数据blob的共鸣
16/ 每个#Celestia全节点必需下载整个数据blob。关于可以使用数据可用性采样(DAS)来确保数据可用性的轻节点来说,这是不同的
17/ 有关DAS和轻节点的更多信息,请查察底下的帖子
https://twitter.com/expctchaos/status/1662141571666681856
18/ 我们稍后也会在这个线程中回到DAS,但如今的重点是全节点
以是回到@CelestiaOrg,它持续以L1的办法行事,依托于对数据blob的广播和共鸣
19/ 因此,它对网络的全节点(128 MB/s下载和12.5 MB/s上传)提出了很高的要求。
只管云云,@CelestiaOrg在开头时的目标是到达中等吞吐量(1.4 MB/s),思索到全节点需求,这仿佛很低
20/ 但是,网络可以经过增长轻节点来扩展吞吐量。数据采样轻节点越多,在确保宁静和去中央化的情况下,区块轻重可以越大
21/ 另一方面,@eigenlayer接纳了不同的架构,没有本人的共鸣,也没有点对点网络
那么这是怎样事情的呢?
起首,EigenDA节点必需在@eigenlayer合约中重新分派$ETH。因此,#EigenDA节点是以太坊验证器的一个子集
22/ 随后,DA买方(比如rollup,也称为疏散器)吸收到数据blob后,用纠删码对其举行编码,并天生KZG允许…
23 /……此中证实轻重取决于纠删码的冗余比率,并公布KZG对#EigenDA智能合约的允许
24/ 编码后的KZG允许由疏散器分发到#EigenDA节点
在收到KZG允许后,这些节点将其与EigenDA智能合约的KZG允许举行比力,并在确认无误后签署证实
25/ 之后,疏散器将这些署名逐一搜集,天生聚合署名,并公布到#EigenDA智能合约中,由智能合约对署名举行验证
26/ 但是,假如#EigenDA节点只是简便地签署证实,声称它在这个事情流中存储了编码的数据blob,而EigenDA智能合约只验证聚合署名的准确性,我们怎样能确定EigenDA节点真的存储了数据?
27/ #EigenDA使用托管证实办法来完成这一点
但是让我们后撤一步,看看这个变得紧张的场景
28/让我们假定一些懒散的验证者没有完因素派给他们的职责(比如确保数据可用)
相反,他们伪装以前完成了事情,并签署了终极后果(在数据不成用时谎报数据可用性)。
29/ 从看法上讲,托管证实就像敲诈证实一样:
任何人都可以向#EigenDA智能合约提交证实(验证者懒散),该证实将由智能合约举行验证
29/ 假如验证告捷,惰性验证器被减少(由于它是一个客观可归因的错误)
30/ 那么共鸣呢?
@CelestiaOrg使用Tendermint作为其共鸣协议,该协议具有单槽终极性。也就是说,一旦一个区块经过了#Celestia的共鸣,它就完成了。这意味着终极确定性基本上和出块时间一样快(15秒)。
31/ @AvailProject使用协议组合来完成终极性。BABE是具有概率落幕性的区块消费机制,GRANDPA是落幕性小东西。固然GRANDPA可以在一个槽中完成区块,但它也可以在一轮中完成多个区块
32/ 由于@eigenlayer是以太坊上的一组智能合约,关于必要转发到rollup合约以证实数据可用性的数据,它也承继了与以太坊相反的终极确定时间(12 - 15 分钟)
33/ 但是,假如rollup完全使用@eigenlayer,它可以更快地完成,这取决于共鸣机制的使用等。
别的,由@eigenlayer的再质押验证器保护的正中件专注于提供快速结算,比如EigenSettle可以提供强上心的经济宁静确保,允许终极预确认。但是,硬终极性确保仍旧来自以太坊L1
34/ 是时分重新审视数据可用性抽样看法了
在大大多区块链中,节点必要下载一切买卖数据来验证数据的可用性。这形成的成绩是,当块轻重增长时,必要验证的数据节点的数目也会增长
35/ 数据可用性抽样(DAS)是一种允许轻节点经过只下载一小局部区块数据来验证数据可用性的武艺
36/ 这为轻节点提供了宁静性,以便它们可以验证没效块(仅限DA和共鸣),并允许区块链在不增长节点需求的情况下扩展数据可用性
37/ DAS最少必要一个老实的全节点和充足数目标轻客户端
38/ 但是怎样确保轻节点的宁静性呢?
与全节点比拟,传统的轻客户端具有较弱的宁静性假定,由于它们只验证区块头
因此,轻客户端无法检测到一个没效区块对否是由不老实的大大多区块消费者消费的
39/ 具多数据可用性采样的轻节点在宁静性上取得了晋级,由于假如DA层只做共鸣和数据可用性,它们可以验证对否产生了没效块
40/ @CelestiaOrg和@AvailProject都将具多数据可用性采样,因此它们的轻节点将具有信任最小化的宁静性。
41/ 这与以太坊和@eigenlayer不同
带有#EIP4844的以太坊没多数据可用性抽样,因此其轻客户端将没有信任最小化的宁静性
42/由于以太坊也有它的智能合约情况,轻客户端也必要验证实行(经过敲诈或好效性证实),而不是依托于老实的大大多假定
43/ @eigenlayer(除非有DAS)轻客户端,假如支持的话,将依托于老实的大大多再质押节点
因此,#EigenDA的宁静性主要基于以太坊验证器集,承继了以太坊slashing原语并确保了DA的经济宁静性
44/ 因此,更多优点干系者到场#EigenDA意味着更大的宁静。缩末节点需求也有助于更好地去中央化
45/ 纠删码是使数据可用性采样成为约莫的紧张机制。纠删编码经过产生数据的分外抄原本扩展块。分外的数据产生冗余,为采样历程提供更强的宁静确保
46/ 但是,节点约莫会试图错误地编码数据以毁坏网络。为了防守这种打击,节点必要一种办法来验证编码的准确性——这就是证实的用武之地
47/以太坊,@eigenlayer和@AvailProject都使用一种好效性证实方案来确保块被准确编码。这个想法相似于zk rollup使用的好效性证实。@eigenlayer以前在这个线程的前方讨论过了
48/ 每产生一个区块,验证者必需对节点使用KZG证实验证的数据做出允许,证实该区块被准确编码
49/ 固然,为KZG证实天生允许对区块消费者来说必要更多的盘算开支,但当区块很小时,天生允许不会带来太多的开支。但是,这改动了……
50/……随着区块变得越来越大,KZG证实的允许产生的包袱要高得多
因此,卖力天生这些允许的节点典范约莫必要更高的硬件需求
51/ 另一方面,@CelestiaOrg为纠删码实行敲诈证实。因此,#Celestia节点不必要反省块对否被准确编码。他们默许它是准确的
52/ 利益是,区块消费者不必要做昂贵的事情来天生纠删编码的允许
但是有一个权衡,由于轻节点必需等候很短的时间才干假定一个块被准确编码,并在它们的视图中完成它
53/ 敲诈证实和好效性证实编码方案之间的主要区别在于天生允许的节点开支和轻节点的延长之间的权衡
54/ 这个表格很好地总结了比力