Multicoin Capital:論技術可擴展性如何創造社會可擴展性
原文標題:《 Technical Scalability Creates Social Scalability 》,作者:Kyle Samani ,Multicoin Capital 聯合創始人,編譯:0x33,律動BlockBeats
編者注:本文假設您熟悉 Nick Szabo 的文章《社會可擴展性》、Vitalik Buterin 的論文《 弱主觀性》以及 Haseeb Qureshi 的論文《為什麼權力下放並不像您想像的那麼重要》。
本文並非對 Szabo 論文的反駁。
Szabo 在他的論文末尾結束時,將社會可擴展性定義為「犧牲計算效率和可擴展性--消耗更便宜的計算資源--以便減少並更好地利用維持關係之間的關係所需的大量人力資源支出陌生人涉及現代機構,例如市場,大公司和政府。」
比特幣戰勝 BCH 和 BSV 無疑支持了這一理論。
然而,自從 Szabo 在 2017 年 2 月發表他的開創性論文以來,加密生態系統已經走了很長一段路。儘管 Szabo 大約在 20 年前就想到了智能合約的概念,但直到最近 24 個月,全世界才開始欣賞智能合約最有用的應用:DeFi。
DeFi 改變了一切。
本文假設區塊鏈最重要的功能本身並不是非主權貨幣,反而是 DeFi。
將系統的主要功能從嚴格的抗審查性,非主權金錢改變為金融應用程序的功能強大且可編程的開發環境,應該對網絡層的技術堆棧的每一層都產生影響(例如 gossip 與 Turbine))通過執行環境(例如 EVM 與 SeaLevel))。(有關 Solana 與以太坊的區別的簡要概述,請參見本文的附錄)
因此,應該首先將區塊鏈作為 DeFi 開發平台進行設計和管理。
可預測性就是力量
「我經常聽到這樣一個問題:'未來十年將會發生什麼變化?' 這是一個非常有趣的問題;也是非常常見的問題。然而我卻幾乎從來沒有被問過這樣的問題:「未來 10 年不會發生什麼變化?」 在這裡我要說,第二個問題實際上是這兩個問題中更重要的那個,因為您可以圍繞時間穩定的事物制定業務戰略。… [在我們的零售業務中,我們知道客戶想要低價,而且我知道從現在起 10 年後都將如此。他們想要快速交貨;他們想要大量的選擇。不可能想象從現在起的 10 年後會有一個客戶走出來說:「傑夫我愛亞馬遜;我只希望商品價格更高一些,」或者「我愛亞馬遜;我只希望您這邊發貨慢一點。' 不可能的。因此,我們投入精力到這些事情上,將這些事情分解起來,我們知道我們今天投入其中的精力仍然會在十年後為我們的客戶帶來回報。當您知道某些事情是正確的時,即使是長期來看,您也可以負擔很多能量。」 ---亞馬遜創始人兼首席執行官傑夫·貝佐斯(Jeff Bezos)
Coinbase 有大概 5000 萬的註冊用戶,Robinhood 也是如此。大多數美國主要銀行也是如此。
我們假設 Coinbase 的戰略要務是儘快將其 100%的用戶遷移到 DeFi,並且監管環境對此予以支持。Coinbase 今天如何在以太坊上做到這一點?
目前,這是一個無法回答的問題。這並不是說在技術上是不可能的,這是有可能。但是,當今世界上沒有一個人或組織可以回答這個問題。為什麼?
因為沒有人真正知道以太坊將如何擴展。舉一個簡單的例子,Vitalik 表示,他相信在近期到中期,optimistic rollups 可能是最佳的擴展解決方案,而從長遠來看,zk 匯總將成為主導。這種轉變何時以及如何發生?需要(重建)什麼基礎設施?這些不同的 rollups 之間的資金流動將如何,對智能合約開發者,錢包,用戶,流動性提供者,加密貨幣等有何影響?
而且,似乎無論擴展解決方案最終會變得多麼重要,該擴展解決方案都不可能有單個整體實例化(例如,意味著單個 Optimism rollup 匯總)。以太坊擴展的未來將是異構的。
從長遠來看,這對以太坊來說可能是一件好事。各種擴展解決方案中的每一個都有一些權衡,並且尚不清楚哪種權衡設置是最佳的,還是組合這些擴展解決方案的最佳方法。因此,從長遠來看,以太坊生態系統的最佳選擇是嘗試多種擴展解決方案,找出哪種解決方案最適合哪種應用程序,然後找出網橋和其他互操作性解決方案以及延遲問題。
此外,所有構建擴展解決方案的團隊都有充足的資金,已經開始上線和面向用戶。因此,所有團隊都不會很快放棄。
那麼,Coinbase 如何將超過 5000 萬的用戶加入 DeFi?
在這樣的規模上,要優化的最重要的事情就是確定性。任何規模的公司都將在目前和未來都要求確定性。
大規模組織根本無法將賭注押在錯誤的技術堆棧上。錯誤的機會成本以及後來遷移/橋接的顯式成本是巨大的。
我認為,唯一可以回答這個問題或將在未來 24 個月內回答這個問題的區塊鏈協議是 Solana。
所有基於 rollup 的擴展解決方案都受到我上面概述的問題的困擾。分片也是如此。儘管來自一系列有能力的團隊(Cosmos,Polkadot,Avalanche 等)進行了數十億資金的研究和開發,但所有分片系統實際上都沒有達到有意義的規模(大多數甚至在日常產出中無法運作)。即使它們以 PoC(proof-of-concept )共識工作,也將有許多新出現的問題必須加以管理(例如,交叉分片事務處理失敗,交易平台集成等等)。
這裡需要明確的是,我並不是說通過分片和 rollup 進行擴展無法正常工作。實際上,我對這兩種解決方案最終都抱有樂觀的態度。但是,這兩種擴展策略今天都無法真正起作用,並且會產生許多必須解決的二級和三級問題。這讓我們很難看到一個急需可擴展性、確定性的公正組織,可以在未來 24 個月內獲得其所需的要素,因為有太多相互交織的組件來擴展以太坊。
碎片化的社會可擴展性成本
除了上面概述的不確定性之外,將應用程序分散在各個分片和 rollups 上會產生明顯的新的社會協調成本,而這在單分片系統中是不存在的。一些例子:
塊時間和計算吞吐量在 Layer 1 和各個 Layer 1 之間有所不同。這直接關係到在所有管理風險的 DeFi 協議(其中包括除 Uniswap / Sushiswap 之外的幾乎所有主要原語)中應如何管理風險。DeFi 團隊已經承諾在多個 Layer 1 和 Layer 2 部署合約。但是,每個執行環境將需要唯一的風險參數。這將增加每個協議社區所需的社會協調數量,並減慢發展速度。
從 optimistic rollups (ORU)退出需要很長時間。市場普遍預期做市商將在 rollup 和 Layer 1 間架起流動性橋梁。但是,此操作的實現細節比較棘手。協議前端應該本地提供嗎?如果是這樣,他們是否應與特定的做市商「簽約」(例如,Citadel Securities 如何與 Robinhood 簽訂 PFOF 合同)?還是應該讓前端讓用戶自己弄清楚?如果用戶想從一個 ORU 轉移到另一個 ORU,該怎麼辦……用戶如何告知應用程序,以便用戶可以使用 Connext 或 Thorchain 而不是退出到 Layer 1?
對於 Metamask 用戶 (他們大部分是高級用戶),用戶自己管理這種複雜性可能是合理的。但是對於試圖抽象出這些複雜性的精選錢包(如 Exodus 或 Argent),錢包團隊將花費多少額外的開發時間來解決這些問題?將會放棄多少實際的新功能開發?如果做市商出於某種原因停止在該特定橋樑/細分市場提供流動性怎麼辦?有哪些備份選項?必須更新開發者工具以處理新的數據結構(ORU 的未處理事務,ZKR 的 zk 輸出)。索引和查詢層將需要進行重大升級,應用程序開發者可能需要重新編寫其子圖以處理新的數據結構(例如,不可能將 EVM 子圖映射到 Starkware 的 Cairo)。
開發者將被迫跨各種異構擴展解決方案重寫大量的應用程序。
隨著分片和 rollup 的激增,DevEx 將變得更具挑戰性。這些問題中沒有一個是棘手的,但是它們會減慢開發速度,並使許多不想解決所有這些問題的開發者感到沮喪。
可預測的,無聊的擴展
Solana 當前可支持 50,000 筆交易/每秒的速度。 全球網絡節點馬上也要超過 600 個。但最重要的是,Solana 提供了無限擴展的可預測路徑。由於它可以在 GPU 上並行執行事務,因此可以利用 GPU 提供的並行性的巨大收益。
摩爾定律可能是過去 50 年中最重要的經濟力量。但是到今天看更像是一種假象。
大約 10 到 15 年前,摩爾定律停止了單線程計算的工作。因為熱量產生隨時鐘速度超線性增加。這就是為什麼扇形設備(台式機和筆記本電腦)停滯在大約 3.5-4 GHz,而無風扇設備(電話和平板電腦)停滯在 1.5-2.0GHz 的原因。儘管過去十年來各種優化使單線程性能有所提高,但單線程性能並不是每 18-24 個月增加一倍。
過去十年中,幾乎所有的計算收益都來自晶片專業化(FPGA 和 ASIC)和平行結構。現代台式機圖形卡具有 4000 多個內核。在過去的十年中,每張卡的內核數量一直在以符合摩爾定律的方式增長,並且這種趨勢將持續下去,因為增加的內核數量所產生的熱量所產生的影響幾乎不會與提高時鐘速度產生的影響相同。
Solana 是唯一通過其原生支持分片內並行性的區塊鏈 SeaLevel 運行。SeaLevel 在 GPU 上本地執行事務。當英偉達在 12-24 個月內發布具有 8,000 個內核的新 GPU 時,Solana 網絡的計算帶寬將大約增加一倍。開發者不會知道,不在乎,也不必更改一行代碼。
這就是可預測性的定義:現在編寫代碼,知道它可以永久保存,並且知道代碼明天執行的成本將比今天少。
縮放計算的主要物理限制是散熱。Solana 從字面上看是在物理極限下擴展的。
量化分權和弱化主觀性
從表面上看,許多人認為 Solana 協議不夠去中心化。他們並沒有真正量化這種說法,但是無論如何他們都會重複它。讓我們量化可以量化的事物。
一,硬體成本:
比特幣在 25 美元的 Raspberry Pi 上運行時,需要一個微弱的互聯網連接。
以太坊在 500 美元的筆記本電腦上運行(儘管鑑於當前的 Gas 限制,這一說法值得懷疑),並且需要寬帶連接。
Solana 在 3500 美元左右的伺服器上運行,假設用千兆連接。
最後一個主要考慮因素是狀態大小。在 50,000 TPS 和數十億用戶的情況下,Solana 的規模將激增。
這樣很好,為什麼?因為
1)假定 Solana 在具有可升級存儲的伺服器上運行(不是不可升級的筆記本電腦),
2)NVMe SSD 通過 RAID 0 線性擴展讀寫性能,以及
3)多 TB NVMe SSD 不到 300 美元。擴展狀態存儲的成本和後勤成本微不足道。
如果您對本文的了解如此之深,並且了解我到目前為止所寫的所有內容,那麼您使用大於 2,000 +美元的 Macbook Pro 的可能性就大於 50%,這也是世界上 5000 萬到 1 億左右的開發者偏好的高端計算機。我懷疑針對 500-1,000 美元的硬體進行優化是最優的。500- 1,000 美元價位有何特別之處?
考慮硬體要求的上限應該是公平的。25,000 美元肯定太高了,因為開發者不擁有這種硬體。代替規定任意的硬體成本,考慮這個問題的更好方法是考慮有多少個節點足以實現足夠的防審查能力。顯然,「足夠」一詞本質上是主觀的,但是如果您假設 1M 是正確的數字,那麼自然的問題是:「世界上是否有足夠的 3500 美元的伺服器與千兆連接,因此有一條通往 1M 節點的合理路徑?」
考慮到世界上擁有高端硬體的遊戲玩家,開發者和企業的數量,很難看出該問題的答案是否定的。
硬體成本問題不能孤立地考慮。必須在系統的設計目標範圍內考慮它。
早些時候,我認為應該針對 DeFi 優化區塊鏈,而不是針對最大的審查阻力(這意味著針對 100M 或 1B 節點而不是 1M 進行優化)。根本沒有必要針對 25 美元甚至 500 美元的硬體進行優化,因為絕大多數人永遠都不會運行一個節點。那么,為什麼還要費心去優化硬體成本和針對它們的協議呢?
一切都是主觀的
這將導致 主觀性較弱 並且認識到權力下放並不像您想像的那麼重要。
世界是主觀的。這意味著什麼?考慮以下示例。
當您上次走進高層建築時,是否首先檢查了建築並採訪了主要承包商,以確保該建築不會倒塌並殺死您?
或著把同樣的顧慮放在一架飛機,汽車或者是你的房子上。
世界上的所有事物都基於某種程度的信任。如果每個人都必須獨立驗證與之互動的所有事物的結構完整性,那麼世界將無法運轉。
相反,這可以表述為:世界之所以運作,是因為每個人都知道,有足夠多的其他人已經驗證了系統的假設,從而以極高的概率保證了系統的安全。
這是主觀性較弱的基本假設。應用於節點計數時,關鍵問題是,即使您沒有運行自己的節點,您是否也可以合理地假設有足夠的其他人員和機構在運行節點,從而可以信任系統?
如今,Solana 擁有約 600 個節點,而一年前還僅約為 100 個。就像幾乎所有的區塊鏈一樣,這個數字隨著時間的推移而增長。只要生態系統繼續增長,就沒有理由相信節點數會減少。像所有其他主要區塊鏈一樣,Solana 網絡隨著時間的流逝自然去中心化,因為越來越多的人使用它,並且更多的價值流過它。
這也是為什麼 Qureshi 是 正確的,而且權力下放並不像您想像的那麼重要。權力下放對於實現審查制度抵抗至關重要。目前尚不清楚該閾值在哪裡(沒有足夠的反事實,我們可以根據該事實進行推理),但是實際閾值本身並不重要。重要的是:
1)曲線的形狀實際上是反向的 S 曲線,以及
2)知道區塊鏈隨著時間的推移而更加去中心化,因此增加了審查審查的抵抗力。只要鏈條以足夠的速度進行權力下放(並且您相信它可以維持權力下放的速度),那麼用戶很有可能會維持他們所需的審查制度抵抗力。
圖片來源:Haseeb Qureshi,為什麼權力下放並不像您想像的那麼重要
結論
眼前的基本問題是:什麼是狗,什麼是尾巴?
自 2009 年比特幣問世以來的第一個十年,很明顯,耐審查性,非主權貨幣是狗,其他應用程序是尾巴。
但這正在改變。現在對於每個使用加密貨幣的人來說,DeFi 都將完全重塑金融。我認為角色已經顛倒了:DeFi 是狗,而非主權貨幣是尾巴。
兩者都需要一定程度的防審查性,但是在工程上受到限制的情況下,在最大化 DeFi 的效用與最大化系統的防審查性之間存在一個基本的權衡。
當系統的基本設計目標發生變化時,技術堆棧也應隨之變化。為了將 DeFi 擴展到數十億人,必須從首要原則重新考慮堆棧的每一層。
感謝 Hasu 審閱這篇文章的初稿