比特幣交易所 比特幣交易所
Ctrl+D 比特幣交易所
ads
首頁 > ICP > Info

以太坊漫游指南(上篇)_PBS

Author:

Time:1900/1/1 0:00:00

主要觀點

以太坊是唯一一個旨在建立可擴展、并將結算和數據可 用性層統一的主要協議。

Rollups 在利用以太坊安全性的同時擴展了計算能力。

所有的道路最終都通向中心化生成區塊、去中心化和無需信任的區塊驗證以及抗審查。

諸如出塊者-區塊打包者分離和弱無狀態等創新,形成了(創建和驗證)權力分離,以實現在不犧牲安全性或去中心化情況下的可擴展性。

MEV(礦工攫取的價值) 現在處于核心重要位置 —— 許多設計都是為了減輕其危害和防止其中心化傾向。

Danksharding 結合了多種前沿研究途徑,為以太坊以 rollup 為中心的路線圖提供所需的可擴展基礎層。

我確實期待 Danksharding 在我們的有生之年得以實現。

引言

自從 Vitalik 說今天出生的人有 50-75% 的機會活到 3000 年,而他希望能長生不老,我就對合并的時機持懷疑態度。但管他呢,讓我們找點樂子,向前看看以太坊雄心勃勃的路線圖吧。

這不是一篇速成文。如果你想對以太坊雄心勃勃的路線圖有一個廣泛而細微的了解,請給我一個小時的時間,我將為你節省幾個月的工作量。

以太坊的研究有很多值得關注的地方,但所有的一切最終都會編織成一個總目標 —— 不犧牲去中心化驗證的可擴展計算。

盡管在區塊鏈中字母"C "(譯者注:“中心化”單詞的首字母)是可怕的,但 Vitalik 仍在其著名的《Endgame》一文中承認,需要一些中心化來進行擴展。我們只是需要通過去中心化和無需信任的驗證來控制這種中心化的權力,沒有任何妥協可言。

特定的行為主體將為 L1 和基于 L1 的東西構建區塊。以太坊通過簡單的去中心化驗證保持了令人難以置信的安全性,而 rollups 則從 L1 繼承其安全性。以太坊同時提供了結算和數據可用性,以允許 rollup 擴展。這篇文章中的所有研究最終都是為了優化結算和數據可用性這兩個角色,同時使得完全驗證一條區塊鏈比以往更容易。

第一部分:通往 Danksharding 之路

希望你聽說過以太坊已經轉向以 rollup 為中心的路線圖,它不再有執行分片,而是將為需要大量數據的 rollup 進行優化。這將通過以太坊計劃的數據分片或 Celestia 計劃的大區塊來實現。

共識層不解釋分片數據,它只有一個任務,即確保數據可用性(Data Availability)。

接下來我將假設你熟悉一些基本概念,如 rollup、欺詐證明、零知識證明,以及假設你明白為什么數據可用性這么重要。

以太坊網絡當前已銷毀241.8萬枚ETH:金色財經報道,據Ultrasound數據顯示,以太坊網絡當前已銷毀2,418,365.28ETH。其中,OpenSea銷毀230,048.62枚ETH,ETHtransfers銷毀224,249.78枚ETH,UniswapV2銷毀133,382.92枚ETH。注:自以太坊倫敦升級引入EIP-1559后,以太坊網絡會根據交易需求和區塊大小動態調整每筆交易的BaseFee,而這部分的費用將直接燃燒銷毀。[2022/6/8 4:11:00]

最初的數據分片設計 (分片1.0)—— 獨立的出塊者

該部分描述的設計已經不復存在,但仍是有價值的內容。為了簡單起見,將其稱為 "分片1.0"。

64 個分片區塊中的每一個都有各自獨立的出塊者和委員會,它們在驗證者集中被輪換分配到每個分片區塊,他們各自驗證自己的分片數據是可用的,所以最初這依賴于每個分片驗證者集中的誠實多數完整地下載數據,并不是現在使用的數據可用性抽樣。

最初的設計帶來了不必要的復雜性、更糟糕的用戶體驗和攻擊方法,且在分片之間重排(輪換)驗證者是非常麻煩的。

如果不引入非常緊密的同步假設,就很難保證投票將在單個時間槽內完成。信標區塊(Beacon Block)的出塊者需要收集所有獨立委員會的投票,而這可能會有延遲。

有別于分片 1.0,Danksharding 則完全不同。驗證者進行數據可用性抽樣以確認所有的數據都是可用的(不再有單獨的分片委員會)—— 一個專用的創建者用信標區塊創建一個大區塊,并將所有分片數據一起確認。因此,出塊者-區塊打包者分離(PBS:Proposer-builder Separation)是 Danksharding 保持去中心化的必要條件(一起構建大區塊會占用大量資源)。

數據可用性采樣

Rollups 會發布大量的數據,但我們不希望它給節點帶來下載所有數據的負擔。高資源需求會損害去中心化。

然而,數據可用性采樣允許節點(甚至輕客戶端)在無需要下載所有這些數據的情況下,輕松、安全地驗證它們都是可用的。

樸素的解決方案:從區塊中檢查出一堆隨機的數據塊 。如果這些塊都沒有什么問題,就可以簽出。但是,如果你錯過了將你所有的 ETH 交給 Sifu 的那筆交易呢?如此資金就不再是安全的了。

聰明的解決方案:先對數據進行糾刪編碼,使用 Reed-Solomon 代碼擴展數據,即數據被插值為多項式,然后在其它的一些位置求值。這很拗口,所以讓我們來解讀一下。

以太坊數據分析平臺Dune Analytics集成Polygon:Polygon官方宣布,以太坊數據分析平臺Dune Analytics集成Polygon。文章中指出,在Polygon上啟動Dune Analytics,將使任何人通過平臺分析和展示數據,Dune Analytics可展示Polygon生態中數百個項目的數據。[2021/6/29 0:13:45]

首先上一堂簡單的數學課:

多項式是任何有限數量的

形式的項的求和表達式,其階是最高的指數,例如

。是一個三階的多項式。你可以基于任意包含 d +1 個坐標的多項式來重構任意的 d 階多項式。

舉個具體的例子:我們有四個數據塊(

),這些數據塊可以被映射到多項式 f(X) 在給定點的值上,例如 f(0) =

,現在你找到了貫穿這些值的最小階多項式,也就是說基于這四個塊我們可以得到三階多項式。然后,我們可以通過再增加位于同一個多項式上的另外四個值(

)來擴展該數據。

多項式的關鍵屬性是我們可以通過任意四個點重構它,但不局限于我們最初使用的四個數據塊。

現在讓我們回到數據可用性抽樣 —— 我們只需要確定被糾刪編碼的數據有任意的 50%(4/8)是可用的,如此即可重構整個區塊。

正因如此,攻擊者必須隱藏超過 50% 的區塊才能成功地欺騙數據可用性抽樣節點,使其認為數據是可用的,但實際上并不是。

在多次成功的隨機采樣之后,數據可用性 <50% 的概率是非常小的。如果我們成功采樣被糾刪編碼的數據 30 次,可用性<50% 的概率是

KZG 承諾

V神:EIP 1559將緩解以太坊當前面臨的三大問題 新方案將更易被礦工接受:EIP 1559被認為是以太坊的下一個大手術,對此,以太坊聯合創始人V神(Vitalik Buterin)整理了一份常見問題解答對EIP 1559做出詳細闡述稱,EIP 1559將緩解以太坊當前面臨的三大問題:1.交易費用水平的波動性與交易的社會成本之間的不匹配。從直覺上看,這種費用調整機制在短期內看就像是一個固定費用,而從長遠來看,它代表著一個上限。在基本上公鏈會并存的背景下,固定費用可能要比設置一個上限要更好。2.第一價格拍賣機制的效率低下問題。EIP 1559用一個固定價格的銷售來代替拍賣(除非在短期內,區塊完全填滿,直到費用趕上),從而消除了第一價格拍賣機制的低效性,并使費用估算變得非常簡單。3.無區塊獎勵區塊鏈的不穩定性問題。EIP 1559創建了一種類似于永久性區塊獎勵的機制,從而緩解了僅收費區塊鏈(指沒有新區塊獎勵的區塊鏈)的許多不穩定問題,而無需實際永久發行。

V神表示,新方案將更易被礦工接受。據悉,EIP 1559是旨在改變以太坊費用市場的提議,主要的變動涉及:1.目前1000萬 gas限額會被兩個數值所取代,一個是“長期平均目標”(1000萬),另一個是“每個區塊的硬上限”(2000萬);2.交易需要支付一個基礎費用(BASEFEE,它會被燃燒掉),該費用按區塊進行調整,目標是確定一個value值,使得區塊gas平均使用量保持在1000萬左右。[2020/5/6]

現在我們已經做了一堆數據可用性隨機采樣,且這些數據都是可用的。但還有一個問題 —— 數據是否被正確的糾刪編碼?不然有可能區塊生成者在擴展區塊時只是添加了 50% 的無用數據,那我們的采樣就是毫無意義的。在這種情況下,我們無法重構數據。

通常,我們只是通過使用 Merkle 根來承諾大量的數據,這對于證明在一個集合內包含一些數據來說是非常高效的。

但我們還需要知道的是,所有的原始數據和擴展數據都位于同一個低階多項式上,而 Merkle 根不能證明這一點。所以如果使用 Merkle 根方案,就還需要欺詐證明,以防出現錯誤的驗證。

開發人員正從兩個方向來處理這個問題:

Celestia 走的是欺詐證明路線。該路線需要有人觀察,如果區塊被錯誤地糾刪編碼,這些人會提交一個欺詐證明來提醒大家。這需要標準的誠實少數假設和同步假設(即,除了有人給我發送欺詐證明,還需要假設我是連接到網絡的,并將在一個有限的時間內收到這個欺詐證明)。

以太坊 和 Polygon Avail 正在走一條新路線 —— KZG 承諾(也叫做 Kate 承諾),它移除了欺詐證明安全性對誠實少數和同步假設的需要。

當然也存在其它的解決方案,但它們并沒有被積極的使用。例如,可以使用零知識證明,但目前在計算上零知識證明是不切實際的,然而它有望在未來幾年內取得極大的改善,所以以太坊很可能會在未來轉向 STARKs,因為 KZG 承諾不具備抗量子計算攻擊的能力。

動態 | 開發人員確認以太坊2.0第0階段今年推出,但具體日期會有延遲:以太坊開發人員Danny Ryan確認,以太坊2.0第0階段(Phase 0)將于今年啟動,但無法確認具體時間。此前以太坊客戶端Parity負責人Peter Mauric表示,Phase 0將在2020年第一季度前上線。據悉,以太坊的主要網絡升級以太坊2.0分階段進行,第0階段升級將帶來切分、權益證明(PoS)和新虛擬機。開發人員解釋說,由于必須對階段0規范進行某些更改以適應階段1的新方向,因此有必要延長截止日期。(Cryptonews)[2020/2/6]

回到 KZG 承諾,它們是一種多項式承諾方案。

承諾方案只是一種可證明承諾某些值的加密方式。最好的比喻是把一封信放在一個上了鎖的盒子里,然后把它遞給別人。這封信一旦放進去就不會發生改變,但可以用鑰匙打開并證明確實有這樣的一封信。你對這封信作出承諾,而鑰匙就是證明。

在我們的案例中,我們將所有的原始數據和擴展數據映射到一個 X,Y 網格上,然后找到貫穿它們的最小階多項式(這個過程被稱為 Lagrange 插值)。該多項式即是證明者要承諾的:

以下是主要要點:

我們有一個 "多項式"?f(X)

證明者對該多項式做出 "承諾"?C(f)?

這依賴于具有可信設置的橢圓曲線密碼學

對于這個多項式的任意 "值"?y = f(z),證明者可以計算出一個 "證明"?π(f,z)

給出承諾 C(f),證明 π(f,z),任意位置 z,以及多項式在 z 處的值 y,驗證者可以證實的確 f(z)=y

也就是說,證明者將這些零散的信息交給任意驗證者,該驗證者可以證實某個點的值(代表源數據)正確地位于被承諾的多項式上

這就證明了原始數據被正確地擴展了,因為所有的值都位于同一個多項式上

注意,驗證者不需要多項式 f(X)

重要屬性 —— 有 O(1) 的承諾大小,O(1)的證明大小 ,以及O(1)的驗證時間 。即使對證明者來說,承諾和證明生成也只是 O(d) 的(其中 d 是多項式的階)。

也就是說,即使 n(X 中值的數量)增加(即數據集隨著分片 Blob 的增大而增大),承諾和證明的大小也保持不變,驗證需要的工作量也是恒定的

承諾 C(f) 和證明 π(f,z) 都只是配對友好曲線(BL12-381)上的一個橢圓曲線元素。在這種情況下,它們各自只有 48 字節(真的很小)

行情 | 以太坊網絡未確認交易筆數為27590筆:根據公開數據顯示,目前以太坊的網絡平均未確認交易筆數為27590筆,較之前33690筆,有一定程度下降,網絡擁堵程度一般。[2018/8/7]

因此,證明者承諾的大量原始和擴展數據(表示為多項式上的許多值)仍然只有 48 字節,而證明也將只有 48 字節

總而言之,是高度可擴展

KZG 根(一個多項式承諾)將類似于 Merkle 根(一個向量承諾):

原始數據是多項式 f(X) 在 f(0) 到 f(3) 位置的值,然后我們通過在 f(4) 到 f(7) 位置計算出多項式的值以擴展它。所有的點 f(0) 到 f(7) 都保證是在同一個多項式上。

總之,數據可用性抽樣允許我們檢查被糾刪編碼的數據是可用的。KZG 承諾向我們證明了原始數據被正確地擴展,并承諾所有多項式上的數據。

好了,今天的代數就講到這里。

KZG 承諾 vs. 欺詐證明

我們已經了解了 KZG 的工作原理,現在來比較一下這兩種方法。

KZG 的缺點是它不是抗量子的,且需要一個可信設置。這些并不令人擔憂,因為 STARKs 提供了一個抗量子的替代方案,而可信設置(是開放參與的)只需要一個誠實的參與者。

KZG 相較欺詐證明場景的優勢是其延遲更低(GASPER 無論如何不會有快速最終確定性),而且它在沒有引入欺詐證明中固有的同步假設和誠實少數假設的情況下,確保了可以適當的進行糾刪編碼。

然而,考慮到以太坊仍然會在區塊重構中再次引入這些假設,所以實際上并沒有消除這些假設帶來的影響。數據可用性層,總是需要為區塊最初可用但隨后因節點需要相互通信而將區塊重新構建起來的情況進行規劃。這種重構需要兩個假設:

有足夠多的(輕或全)節點對數據進行采樣,以至于它們共同擁有足夠多的數據可以拼湊起來。這是一個相當弱的、不可避免的誠實少數假設,所以不是什么大問題。?

重新引入同步假設,使節點能在一定時間內進行通信,以便將這些數據重新組合起來。

以太坊驗證者在原始的 Danksharding方案中(Proto)需要完整地下載分片二進制數據塊(Blob: binary large object),而在 Danksharding 中它們只會進行數據可用性抽樣(下載指定的行和列),Celestia 則要求驗證者下載整個區塊。

需要注意的是,在任何一種情況下重構都需要同步假設。如果區塊僅部分可用,則全節點必須與其它節點進行通信以將區塊拼湊出來。

如果 Celestia 想從要求驗證者下載全部的數據轉變為只執行數據可用性抽樣(盡管這種轉變目前還沒有計劃好),那么 KZG 的延遲優勢就會顯現出來。然后他們也需要實現 KZG 承諾,因為等待欺詐證明意味著將顯著增加區塊間隔,并且意味著驗證者投票給編碼錯誤區塊的危險性將特別高。

為深入探討 KZG 承諾的工作原理,我推薦下以下閱讀內容:(見文尾鏈接)

(相對容易理解的)橢圓曲線密碼學入門

探索橢圓曲線配對—— Vitalik?

KZG 多項式承諾—— Dankrad?

可信設置是如何工作的——Vitalik?

協議內出塊者-區塊打包者分離

出塊者-區塊打包者分離 (PBS: Proposer-Builder Separation)

今天的共識節點(礦工)和合并后的共識節點(驗證者)擔任兩個角色:他們構建區塊,然后將區塊提交給將驗證區塊的共識節點。礦工在前一個區塊上構建以進行 "投票",合并之后,驗證者將直接投票決定區塊是否有效。

PBS 將這個過程拆分,它明確地創建了一個新的協議內區塊打包者角色。特定的區塊打包者把區塊放在一起,并投標出塊者(驗證者)選擇他們的區塊。這對抗了 MEV 的中心化力量。

回顧 Vitalik 的《Endgame》—— 所有的道路都通向基于無需信任和去中心化驗證的中心化區塊生成。PBS 對此進行了編碼。我們需要一個誠實的區塊打包者來為網絡的活性和抗審查服務(這兩點都是為了保持一個有效的市場),驗證者集需要誠實多數假設。PBS 使出塊者的角色盡可能簡單,以支持驗證者的去中心化。

區塊打包者獲得優先的費用小費,并且可以提取任何 MEV。在一個有效的市場中,有競爭力的區塊打包者會出價到他們能從區塊中提取的全部價值(其中會減去他們的攤銷成本,如強大的硬件等)。所有的這些價值都會滲透到去中心化的驗證者集 —— 這正是我們想要的。

確切的 PBS 實現仍在討論中,但雙槽 PBS 可能看起來像這樣:

區塊打包者對區塊頭和他的出價一起進行承諾

信標區塊出塊者選擇獲勝的區塊頭和投標,并將無條件得到中標費,即使區塊打包者未能生成區塊體。

證人委員會確認獲勝的區塊頭

區塊打包者披露獲勝的區塊體

不同的認證人委員會選出獲勝的區塊體(如果中標的區塊打包者不出示區塊體,則投票證明該區塊體不存在)

使用標準 RANDAO 機制從驗證人集中選出出塊者,然后使用一個可以確保在區塊頭被委員會確認之前不會披露完整區塊體的承諾-披露方案。

承諾-披露方案效率更高(發送數百個完整的區塊體可能會超出 p2p 層的帶寬),且還可以防止 MEV 盜取。如果區塊打包者提交它們的完整區塊,則另一個區塊打包者可以觀察到并找出策略與之合并,進而迅速發布一個更好的區塊。此外復雜的出塊者可以檢查并復制使用的 MEV 策略,而無需補償對區塊打包者。如果這種 MEV 盜取行為成為一種均衡,那么它將激勵區塊打包者和出塊者合并。這就是為什么我們要用承諾-披露方案來避免這種情況。

在出塊者選擇了獲勝的區塊頭后,委員會對其進行確認,并將其固定在在分岔選擇規則中。然后獲勝的區塊打包者會公布它們獲勝了的完整的 "區塊打包者區塊" 體。如若公布即及時,下一屆委員會將會對該 "區塊打包者區塊" 體進行認證;如若公布不及時,區塊打包者仍需向出塊者支付全額標價(并失去了所有的 MEV 和費用)。這種無條件的支付不再需要出塊者信任區塊打包者。

延時是這種 "雙槽" 設計的缺點。合并后的區塊將有一個固定的 12 秒,所以如果我們在這里不想引入任何新的假設,那么我就需要一個 24 秒的完整區塊時間(兩個 12 秒的插槽)。每槽 8 秒(16 秒區塊時間)似乎是一個安全的妥協,不過研究正在進行中。

抗審查清單(crList)

不幸的是,PBS 增強了區塊打包者審查交易的能力。也許區塊打包者只是不喜歡你,所以他們忽略你的交易;也許他們的工作能力很強,以至于其它打包者都放棄工作了;也可能他們會對區塊漫天要價,只是因為真的很不喜歡你。

抗審查清單對以上這些權力進行檢查。具體的實現方式仍然是一個開放的設計空間,不過 "混合 PBS "似乎是最受歡迎的,即出塊者指定一個它們在存儲池中看到的所有符合條件的交易列表,區塊打包者將強制包含它們(除非區塊已滿):

出塊者發布一個抗審查清單和包含所有符合條件的交易的抗審查清單摘要

區塊打包者創建一個被提議了的區塊體,然后提交投標,其中包括抗審查清單摘要的哈希,以證明他們已看到該提議區塊體

出塊者接受獲勝區塊打包者的出價和區塊頭(此時出塊者還沒有看到區塊體)

區塊打包者發布他們的區塊和一個可以證明他們已經包含了抗審查清單中所有交易或區塊已經滿了的證明,否則該區塊不會被分岔選擇規則接受

認證者檢查所發布的區塊體的有效性

這里仍然有一些重要的問題需要理清楚,例如基于這種情況的主流經濟策略是出塊者提交一個空名單,這樣一來,只要誰出價最高誰就能獲勝,即使是審查創建者也能贏得競標。有一些想法可以解決這個問題和其它一些問題,但在這里只是強調設計并不是一成不變的。

二維 KZG 方案

我們已經知道了 KZG 承諾是如何讓我們承諾數據并證明它是被正確地擴展的,然而我簡化了以太坊實際要做的事情:一個區塊將使用許多 KZG 承諾,因為無法在一個單一的 KZG 承諾中承諾所有數據。

我們已經有專用的區塊打包者,那么為什么不能直接讓它們創建一個巨大的 KZG 承諾呢?因為這需要一個強大的超級節點來進行重構。我們可以接受初始構建階段的超級節點需求,但我們需要避免重構時的假設。我們需要更低的資源實體處理重構,而將這些重構拆分成許多 KZG 承諾是使之可行的。重構甚至可能是相當常見的,或者說在該給定數據量的設計中,重構就是該設計中的基本情況假設。

為了使重構更容易,每個區塊將包括編碼到 m 個 KZG 承諾中的 m 個分片 blob 。雖然這樣做會導致大量的采樣,即你會在每個分片 blob 上執行數據可用性采樣,以知道它都是可用的(在 m*k 樣本中,k 是每個 blob 的樣本數)。

但以太坊將使用二維 KZG 方案,即再次使用 Reed-Solomon 編碼將 m 個承諾擴展到 2m 個承諾:

我們通過在和0-255同樣的多項式之上再添加額外的KZG承諾(這里是256-511)來使其成為一個二維方案。現在我們只需在上面的表格上中執行數據可用性抽樣,以確保所有跨分片數據可用。

二維抽樣要求 ≥75% 的數據是可用的(不是之前的 50%),這意味著需要更多的固定抽樣。在前文中有提到,在一個簡單的一維方案中需要 30 個數據可用性抽樣的樣本,但在二維方案中將需要 75 個樣本才能確保重構一個可用區塊的概率相同。

分片 1.0(有一個一維KZG 承諾方案)只需要 30 個樣本,但如果你想檢查所有 1920 個樣本的全部數據可用性,你需要對 64 個分片進行采樣,每個樣本是 512 B,所以這就需要。

(512 B x 64 個分片 x 30 個樣本) / 16 秒 = 60 KB/s 帶寬

在現實中,驗證者是被輪換的,不會逐一檢查所有的分片。現在,與二維 KZG 承諾方案相結合的區塊使檢查全部數據可用性變得輕而易舉,只需要一個統一區塊的 75 個采樣樣本:

(512 B x 1 個區塊 x 75 個樣本) / 16 秒 = 2.5 KB/s 寬帶

Tags:以太坊PBSDANDANK以太坊最新價格行情昭PBS幣Zone of AvoidanceDANK價格

ICP
晚間必讀5篇 | 從鏈上數據看加密行情的新變化_STE

1.金色觀察 | 從鏈上數據看加密行情的新變化最新數據顯示,“加密市場崩盤”詞條正在全球范圍內主導谷歌搜索趨勢.

1900/1/1 0:00:00
Nansen深度研報(上):七大“巨鯨”異動追蹤 揭開 UST 脫錨的神秘面紗_ANC

Nansen 的研究團隊深入研究了 UST 脫鉤,使用鏈上證據消除了 Terra 上存在單一惡意攻擊者的謠言.

1900/1/1 0:00:00
元宇宙視角下商業銀行未來網點發展初探_ETA

導語:分析元宇宙的發展對商業銀行未來網點、智慧銀行可能帶來的影響與啟示,有助于幫助商業銀行加速未來網點的創新和布局,助力銀行業數字化轉型.

1900/1/1 0:00:00
ConsenSys:一文速覽以太坊測試網簡史_BSP

原文標題:《The History of Ethereum Testnets》測試網絡是模擬區塊鏈主網的替代網絡,其創建目的是為了測試和試驗主網區塊鏈的功能,以減少實際運行式產生的錯誤.

1900/1/1 0:00:00
Web3元宇宙:需要自炒底料的火鍋店_WEB

一條美食街(游戲行業)上開著三家店:一家是開了幾十年的川菜館(傳統web2游戲),廚師用經過時間驗證的手藝親手為你準備上質量穩定的美味(高質量游戲產品);第二家是剛開沒多久的炸串小店(Axie等.

1900/1/1 0:00:00
《連線》雜志記者:從加密懷疑論者到創建DAO組織 丹佛三日體驗如何改變了我_WEB

Web3的使命幾乎是一種極端理想主義:不僅要將人類從大型科技公司的統治中解放出來,而且要把人類從剝削性資本主義本身中解放出來,并且純粹通過代碼來做到這一點.

1900/1/1 0:00:00
ads