Multicoin Capital:技術的スケーラビリティがどのように社会的スケーラビリティを生み出すかについて
原文タイトル:《 Technical Scalability Creates Social Scalability 》,著者:Kyle Samani ,Multicoin Capital共同創業者,編訳:0x33,律動BlockBeats
編者注:この記事は、Nick Szaboの論文「社会的スケーラビリティ」、Vitalik Buterinの論文「弱い主観性」、およびHaseeb Qureshiの論文「なぜ権力の分散はあなたが想像するほど重要ではないのか」に精通していることを前提としています。
この記事はSzaboの論文に対する反論ではありません。
Szaboは彼の論文の最後で、社会的スケーラビリティを「計算効率とスケーラビリティを犠牲にすること—より安価な計算資源を消費すること—によって、現代の機関(市場、大企業、政府など)に関与する多くの人力資源の支出を削減し、より良く利用するための関係を維持すること」と定義しています。
ビットコインがBCHやBSVに勝利したことは、この理論を支持しています。
しかし、Szaboが2017年2月に彼の画期的な論文を発表して以来、暗号エコシステムは長い道のりを歩んできました。Szaboが約20年前にスマートコントラクトの概念を考え出したにもかかわらず、世界がスマートコントラクトの最も有用なアプリケーションであるDeFiを評価し始めたのは、最近の24ヶ月間のことです。
DeFiはすべてを変えました。
この記事は、ブロックチェーンの最も重要な機能は非主権通貨そのものではなく、むしろDeFiであると仮定しています。
システムの主要な機能を厳格な検閲耐性、非主権通貨から、金融アプリケーションの機能強力でプログラム可能な開発環境に変更することは、ネットワーク層の技術スタックのすべてのレイヤーに影響を与えるべきです(例えば、gossipとTurbine、実行環境(EVMとSeaLevelなど))。 (SolanaとEthereumの違いの簡単な概要については、この記事の付録を参照してください)
したがって、ブロックチェーンはまずDeFi開発プラットフォームとして設計され、管理されるべきです。
予測可能性は力である
「私はよくこういう質問を聞きます:『今後10年で何が変わるのでしょうか?』これは非常に興味深い質問であり、非常に一般的な質問です。しかし、私はほとんどこのような質問を受けたことがありません:「今後10年で何も変わらないでしょうか?」ここで言いたいのは、2番目の質問が実際にはこの2つの質問の中でより重要なものであるということです。なぜなら、時間的に安定した事柄を中心にビジネス戦略を策定できるからです。… [私たちの小売ビジネスでは、顧客が低価格を望んでいることを知っていますし、10年後もそうであることを知っています。彼らは迅速な配達を望んでいます;彼らは多くの選択肢を望んでいます。今から10年後に「ジェフ、私はアマゾンが大好きです;商品価格がもう少し高ければいいのに」と言う顧客が現れることは想像できませんし、「私はアマゾンが大好きです;あなたの発送がもう少し遅ければいいのに」と言うことも不可能です。したがって、私たちはこれらのことにエネルギーを注ぎ、これらのことを分解し、私たちが今日注いでいるエネルギーが10年後に顧客に利益をもたらすことを知っています。何かが正しいとわかっているとき、たとえ長期的に見ても、多くのエネルギーをかけることができます。」 ---アマゾン創業者兼CEOジェフ・ベゾス(Jeff Bezos)
Coinbaseには約5000万の登録ユーザーがいますし、Robinhoodも同様です。ほとんどのアメリカの主要銀行も同様です。
私たちは、Coinbaseの戦略的任務はできるだけ早く100%のユーザーをDeFiに移行させることであり、規制環境がこれを支持していると仮定します。Coinbaseは今日、Ethereum上でこれをどのように実現するのでしょうか?
現時点では、これは答えられない質問です。技術的に不可能だというわけではなく、可能です。しかし、今日の世界にはこの質問に答えられる人や組織は存在しません。なぜでしょうか?
なぜなら、誰もEthereumがどのようにスケールするかを本当に知らないからです。簡単な例を挙げると、Vitalikは、彼が信じるところによれば、短期から中期にかけてoptimistic rollupsが最適なスケーリングソリューションであり、長期的にはzk rollupsが主流になる可能性があると述べています。この変化はいつ、どのように起こるのでしょうか?(再構築が)必要なインフラは何でしょうか?これらの異なるrollups間の資金の流れはどのように行われ、スマートコントラクト開発者、ウォレット、ユーザー、流動性提供者、暗号通貨などにどのような影響を与えるのでしょうか?
また、拡張ソリューションが最終的にどれほど重要になるとしても、その拡張ソリューションは単一の全体的なインスタンス化(例えば、単一のOptimism rollupの集約)を持つことは不可能のようです。Ethereumの拡張の未来は異種混合になるでしょう。
長期的には、これはEthereumにとって良いことかもしれません。さまざまな拡張ソリューションのそれぞれにはいくつかのトレードオフがあり、どのトレードオフ設定が最適であるか、またはこれらの拡張ソリューションを組み合わせる最良の方法はまだ不明です。したがって、長期的にはEthereumエコシステムの最良の選択肢は、さまざまな拡張ソリューションを試し、どのソリューションがどのアプリケーションに最適かを見つけ、その後、ブリッジや他の相互運用性ソリューション、遅延問題を見つけることです。
さらに、すべての拡張ソリューションを構築するチームは十分な資金を持っており、すでにオンラインでユーザー向けに提供を開始しています。したがって、すべてのチームはすぐに放棄することはありません。
では、Coinbaseはどのように5000万以上のユーザーをDeFiに参加させるのでしょうか?
このような規模で最も重要なことは、決定論です。どの規模の企業でも、現在と将来にわたって決定論を要求します。
大規模な組織は、間違った技術スタックに賭けることはできません。間違った機会コストと後の移行/ブリッジの明示的なコストは膨大です。
私が考えるに、この質問に答えられる唯一のブロックチェーンプロトコル、または今後24ヶ月以内にこの質問に答えるであろうプロトコルはSolanaです。
すべてのrollupベースの拡張ソリューションは、私が上で概説した問題に悩まされています。シャーディングも同様です。能力のあるチーム(Cosmos、Polkadot、Avalancheなど)から数十億の資金が研究開発に投じられていますが、すべてのシャーディングシステムは実際には意味のあるスケールに達していません(ほとんどは日常的な出力で機能できません)。それらがPoC(概念実証)コンセンサスで機能しても、管理しなければならない新たな問題が多数発生します(例えば、クロスシャードトランザクションの失敗、取引プラットフォームの統合など)。
ここで明確にしておくべきことは、私はシャーディングやrollupによる拡張が正常に機能しないと言っているわけではありません。実際、私はこの2つのソリューションの最終的な成功に楽観的です。しかし、これらの2つの拡張戦略は今日実際には機能せず、多くの二次的および三次的な問題を引き起こします。これにより、Ethereumの拡張に必要な要素を24ヶ月以内に得ることができる公正な組織を見つけるのが難しくなります。
断片化された社会的スケーラビリティのコスト
上記の不確実性に加えて、アプリケーションを各シャードやrollupに分散させることは、単一のシャーディングシステムには存在しない明らかな新しい社会的調整コストを生じます。いくつかの例:
ブロック時間と計算スループットはLayer 1と各Layer 1の間で異なります。これは、すべてのリスクを管理するDeFiプロトコル(Uniswap/Sushiswapを除くほぼすべての主要な原語を含む)でリスクをどのように管理するかに直接関係しています。DeFiチームは複数のLayer 1およびLayer 2に契約を展開することを約束しています。しかし、各実行環境はユニークなリスクパラメータを必要とします。これにより、各プロトコルコミュニティに必要な社会的調整の数が増加し、発展の速度が遅くなります。
optimistic rollups(ORU)からの退出には長い時間がかかります。市場は一般的に、マーケットメーカーがrollupとLayer 1の間に流動性ブリッジを架けると予想しています。しかし、この操作の実現の詳細は厄介です。プロトコルのフロントエンドはローカルで提供されるべきですか?そうであれば、特定のマーケットメーカーと「契約」を結ぶべきでしょうか(例えば、Citadel SecuritiesがRobinhoodとPFOF契約を結ぶ方法)?それとも、フロントエンドがユーザーに自分で解決させるべきでしょうか?ユーザーがあるORUから別のORUに移動したい場合、どうすればいいのでしょうか……ユーザーはどのようにアプリケーションに通知し、ユーザーがConnextやThorchainを使用できるようにするのでしょうか?
Metamaskユーザー(彼らの大部分は上級ユーザー)にとって、ユーザー自身がこの複雑さを管理することは合理的かもしれません。しかし、これらの複雑さを抽象化しようとする選りすぐりのウォレット(ExodusやArgentなど)にとって、ウォレットチームはこれらの問題を解決するためにどれだけの追加の開発時間を費やすのでしょうか?実際の新機能開発はどれだけ放棄されるのでしょうか?もしマーケットメーカーが何らかの理由でその特定のブリッジ/セグメントで流動性を提供するのを停止したらどうなるでしょうか?どのようなバックアップオプションがありますか?新しいデータ構造(ORUの未処理トランザクション、ZKRのzk出力)を処理するために開発者ツールを更新する必要があります。インデックスとクエリ層は大幅なアップグレードが必要であり、アプリケーション開発者は新しいデータ構造を処理するためにそのサブグラフを再作成する必要があるかもしれません(例えば、EVMサブグラフをStarkwareのCairoにマッピングすることは不可能です)。
開発者はさまざまな異種の拡張ソリューションにわたって大量のアプリケーションを再構築することを余儀なくされます。
シャーディングとrollupの急増に伴い、DevExはより困難になります。これらの問題のいずれも厄介ではありませんが、開発速度を遅くし、すべての問題を解決したくない多くの開発者を苛立たせることになります。
予測可能で退屈な拡張
Solanaは現在、50,000トランザクション/秒の速度をサポートしています。グローバルネットワークノードもすぐに600を超えます。しかし最も重要なのは、Solanaが無限に拡張可能な予測可能な道を提供していることです。GPU上でトランザクションを並行して実行できるため、GPUが提供する並行性の巨大な利点を活用できます。
ムーアの法則は過去50年間で最も重要な経済的力の1つかもしれません。しかし、今日見ると、むしろ幻想のようです。
約10〜15年前、ムーアの法則は単一スレッド計算の作業を停止しました。なぜなら、熱の生成がクロック速度に対して超線形に増加するからです。これが、セクターデバイス(デスクトップやノートパソコン)が約3.5〜4GHzで停滞し、無風ファンデバイス(電話やタブレット)が1.5〜2.0GHzで停滞する理由です。過去10年間のさまざまな最適化により、単一スレッドの性能は向上しましたが、単一スレッドの性能は18〜24ヶ月ごとに倍増するわけではありません。
過去10年間、ほぼすべての計算の利点はチップの専門化(FPGAやASIC)と並行構造から得られました。現代のデスクトップグラフィックカードは4000以上のコアを持っています。過去10年間、各カードのコア数はムーアの法則に従って増加し続けており、この傾向は続くでしょう。なぜなら、増加したコア数が生み出す熱の影響は、クロック速度の向上によって生じる影響とはほとんど同じではないからです。
Solanaは、ネイティブでシャーディング内の並行性をサポートするブロックチェーンSeaLevelを運営しています。SeaLevelはGPU上でトランザクションをローカルに実行します。NVIDIAが12〜24ヶ月以内に8000コアの新しいGPUをリリースすると、Solanaネットワークの計算帯域幅は約倍増します。開発者は、コードの1行も変更する必要がなく、知らずに済みます。
これが予測可能性の定義です:今コードを書くことができ、永続的に保存されることを知っており、明日実行するコストが今日よりも少ないことを知っています。
スケーリング計算の主要な物理的制約は熱放散です。Solanaは文字通り物理的限界で拡張しています。
分権化の量と弱い主観性
表面的には、多くの人々がSolanaプロトコルは十分に分散されていないと考えています。彼らはこの主張を実際に定量化していませんが、それでも繰り返します。定量化できるものを定量化しましょう。
一、ハードウェアコスト:
ビットコインは25ドルのRaspberry Piで動作し、微弱なインターネット接続が必要です。
Ethereumは500ドルのノートパソコンで動作します(現在のGas制限を考慮すると、この主張は疑わしいですが)、ブロードバンド接続が必要です。
Solanaは3500ドル程度のサーバーで動作し、ギガビット接続を仮定します。
最後の主要な考慮事項は状態サイズです。50,000 TPSと数十億のユーザーがいる場合、Solanaの規模は急増します。
これは良いことです。なぜなら
1)Solanaがアップグレード可能なストレージを持つサーバー上で動作していると仮定し(アップグレード不可能なノートパソコンではなく)、
2)NVMe SSDがRAID 0を介して読み書き性能を線形に拡張し、さらに
3)数TBのNVMe SSDが300ドル未満であるため、状態ストレージの拡張コストと物流コストは微々たるものです。
もしあなたがこの記事の理解がこれほど深く、私がこれまでに書いたすべてのことを理解しているなら、あなたが2000ドル以上のMacbook Proを使用している可能性は50%を超え、これは世界中の5000万から1億人の開発者が好む高性能コンピュータです。私は500〜1000ドルのハードウェアを最適化することが最適であるとは疑っています。500〜1000ドルの価格帯には何か特別なものがありますか?
ハードウェア要件の上限を考慮することは公平であるべきです。25000ドルは確かに高すぎます。なぜなら、開発者はそのようなハードウェアを所有していないからです。任意のハードウェアコストを規定する代わりに、この問題を考えるより良い方法は、十分な検閲耐性を実現するためにどれだけのノードが必要かを考慮することです。「十分」という言葉は本質的に主観的ですが、もし1Mが正しい数字であると仮定すれば、自然な疑問は「世界には3500ドルのサーバーが十分にあり、ギガビット接続があり、1Mノードへの合理的な道があるのか?」です。
世界中に高性能ハードウェアを持つゲーマー、開発者、企業の数を考慮すると、この問題の答えが否定的であるとは考えにくいです。
ハードウェアコストの問題は孤立して考えることはできません。システムの設計目標の範囲内で考慮する必要があります。
以前、私はDeFiのためにブロックチェーンを最適化すべきだと考えていました。最大の検閲耐性のためではなく(つまり、1Mノードではなく、1億または10億ノードのために最適化することを意味します)。25ドルや500ドルのハードウェアに最適化する必要は全くありません。なぜなら、ほとんどの人は決してノードを運営しないからです。では、なぜハードウェアコストを最適化し、それに対するプロトコルを考慮する必要があるのでしょうか?
すべては主観的である
これは、主観性が弱く、権力の分散があなたが想像するほど重要ではないことを認識することにつながります。
世界は主観的です。これは何を意味するのでしょうか?以下の例を考えてみてください。
あなたが最後に高層ビルに入ったとき、まずその建物をチェックし、主要な請負業者にインタビューして、その建物が崩壊してあなたを殺すことがないことを確認しましたか?
あるいは、同じ懸念を飛行機、自動車、またはあなたの家に置きましたか?
世界のすべての事柄は、ある程度の信頼に基づいています。もし誰もが相互作用するすべての事柄の構造的完全性を独立して検証しなければならないなら、世界は機能しません。
逆に言えば、世界が機能するのは、誰もが、他の多くの人々がすでにシステムの仮定を検証しており、その結果、システムの安全性が非常に高い確率で保証されていることを知っているからです。
これが主観性が弱いという基本的な仮定です。ノード数に適用される場合、重要な問題は、あなたが自分のノードを運営していなくても、他に十分な人々や機関がノードを運営していると合理的に仮定できるかどうかです。
今日、Solanaは約600のノードを持っており、1年前は約100でした。ほとんどすべてのブロックチェーンと同様に、この数は時間とともに増加しています。エコシステムが成長し続ける限り、ノード数が減少する理由はありません。他の主要なブロックチェーンと同様に、Solanaネットワークは時間の経過とともに自然に分散化されます。なぜなら、ますます多くの人々がそれを使用し、より多くの価値がそれを通過するからです。
これが、Qureshiが正しい理由であり、権力の分散があなたが想像するほど重要ではない理由です。権力の分散は、検閲制度に対する抵抗を実現するために重要です。現在、その閾値がどこにあるのかは不明です(十分な反事実がないため、私たちはその事実に基づいて推論することができません)が、実際の閾値自体は重要ではありません。重要なのは:
1)曲線の形状が実際には逆S曲線であること、そして
2)ブロックチェーンが時間の経過とともにより分散化されるため、検閲に対する抵抗力が増すことを知っていることです。チェーンが十分な速度で権力を分散化し続ける限り(そしてあなたがそれが権力の分散を維持できると信じている限り)、ユーザーは彼らが必要とする検閲制度の抵抗力を維持する可能性が高いです。

画像出典:Haseeb Qureshi、なぜ権力の分散はあなたが想像するほど重要ではないのか
結論
目の前の基本的な問題は:犬とは何か、尾とは何か?
2009年にビットコインが登場してからの最初の10年間、耐検閲性、非主権通貨が犬であり、他のアプリケーションが尾であることは明らかでした。
しかし、これは変わりつつあります。今や、暗号通貨を使用するすべての人にとって、DeFiは金融を完全に再構築します。私は役割が逆転したと考えています:DeFiが犬であり、非主権通貨が尾です。
両者はある程度の検閲耐性を必要としますが、エンジニアリングの制約の下で、DeFiの効用を最大化することとシステムの検閲耐性を最大化することの間には基本的なトレードオフがあります。
システムの基本設計目標が変わると、技術スタックもそれに応じて変わるべきです。DeFiを数十億人に拡張するためには、スタックの各レイヤーを基本的な原則から再考する必要があります。
Hasuにこの記事の初稿をレビューしてもらったことに感謝します。















