AIの発展史から見る「AI + DePin」概念下のIO.NET

バイトアイ
2024-04-02 18:49:08
コレクション
io.netは今年の3月にHack VCのリード投資の下、3000万ドルのAラウンド資金調達を完了したことを発表しました。これにはMulticoin Capital、6th Man Ventures、Solana Ventures、OKX Ventures、Aptos Labs、Delphi Digital、The Sandbox、The SandboxのSebastian Borgetなどが参加しています。

著者:Biteye コア貢献者 Fishery

編集:Biteye コア貢献者 Crush

コミュニティ:@BiteyeCN

io.netはIO Researchが開発したSolanaベースの分散型AI計算プラットフォームで、最新の資金調達ラウンドで10億ドルのFDV評価に達しました。 io.netは今年の3月にHack VCのリードで3000万ドルのAラウンド資金調達を完了したことを発表しました。このラウンドにはMulticoin Capital、6th Man Ventures、Solana Ventures、OKX Ventures、Aptos Labs、Delphi Digital、The Sandbox、The SandboxのSebastian Borgetなどが参加しています。

io.netはAIおよび機械学習企業のためにGPUリソースを集約し、より低コストで迅速なサービス提供を目指しています。昨年の11月に開始以来、io.netは25,000以上のGPUに成長し、AIおよび機械学習企業のために40,000時間以上の計算を処理しました。

io.netのビジョンは、AIおよび機械学習チーム/企業と世界中の強力なGPUリソースとの間にエコシステムを構築する、グローバルな分散型AI計算ネットワークを構築することです。

このエコシステムでは、AI計算リソースが商品化され、供給と需要の両方がリソース不足に悩まされることはありません。将来的には、io.netはIOモデルストアへのアクセスやサーバーレス推論、クラウドゲーム、ピクセルストリーミングなどの高度な推論機能を提供する予定です。

01.**** *ビジネス背景*

io.netのビジネスロジックを紹介する前に、分散型計算という分野を2つの次元から理解する必要があります:1つはAI計算の発展の歴史、もう1つは過去に同様の分散型計算を使用した事例を理解することです。 AI計算の発展の歴史

AI計算の発展の軌跡をいくつかの重要な時間点から描くことができます:

1. 機械学習の初期(1980年代 - 2000年代初頭)

この時期、機械学習の手法は主に比較的単純なモデル(決定木、サポートベクターマシン(SVM)など)に集中していました。これらのモデルの計算要求は比較的低く、当時の個人用コンピュータや小型サーバーで実行可能でした。データセットは比較的小さく、特徴エンジニアリングとモデル選択が重要なタスクでした。

時間点:1980年代から2000年代初頭

計算要求:比較的低く、個人用コンピュータや小型サーバーで満たすことができる。

計算ハードウェア:CPUが計算リソースを支配。

2. 深層学習の台頭(2006年 - 現在)

2006年、深層学習の概念が再導入され、この時期はHintonらの研究が特徴です。その後、深層神経ネットワーク、特に畳み込み神経ネットワーク(CNN)やリカレント神経ネットワーク(RNN)の成功した応用が、この分野の突破を示しました。この段階では、特に画像や音声などの大規模データセットを処理する際に、計算リソースの要求が大幅に増加しました。

時間点:

ImageNetコンペティション(2012年):AlexNetのこのコンペティションでの勝利は、深層学習の歴史における象徴的な出来事であり、深層学習が画像認識分野での巨大な潜在能力を初めて示しました。

AlphaGo(2016年):Google DeepMindのAlphaGoが世界囲碁チャンピオンの李世石を打ち負かしたことは、AIのこれまでの最も輝かしい瞬間の一つであり、深層学習が複雑な戦略ゲームに応用できることを示し、非常に複雑な問題を解決する能力を世界に証明しました。

計算要求:大幅に増加し、複雑な深層神経ネットワークを訓練するためにより強力な計算リソースが必要。

計算ハードウェア:GPUが深層学習の訓練における重要なハードウェアとなり、並列処理においてCPUを大きく上回る性能を発揮。

3. 大規模言語モデルの時代(2018年 - 現在)

BERT(2018年)やGPT技術(2018年以降)の登場により、大規模モデルがAI分野を支配し始めました。これらのモデルは通常、数十億から数兆のパラメータを持ち、計算リソースの要求は前例のないレベルに達しました。これらのモデルを訓練するには、大量のGPUまたはより専門的なTPUが必要であり、大量の電力と冷却設備のサポートも必要です。

時間点:2018年から現在。

計算要求:非常に高く、大量のGPUまたはTPUが必要で、相応のインフラのサポートが求められます。

計算ハードウェア:GPUやTPUに加え、大規模機械学習モデルの最適化のための専用ハードウェア(GoogleのTPU、NvidiaのA、Hシリーズなど)が登場し始めました。

過去30年間のAIによる計算リソースの指数関数的な増加を考えると、初期の機械学習は計算リソースの要求が低く、深層学習の時代に入るとその要求が増加し、AIの大規模モデルがさらにその要求を極限に押し上げました。私たちは計算ハードウェアの数量と性能の著しい向上を目の当たりにしました。

この成長は、従来のデータセンターの規模の拡大やGPUなどのハードウェア性能の向上だけでなく、高額な投資のハードルと豊富なリターンの期待にも反映されており、インターネットの巨人たちの競争を公然とさせるに足るものです。

従来の集中型GPU計算センターでは、初期投資には高価なハードウェアの調達(GPU自体)、データセンターの建設または賃貸費用、冷却システム、メンテナンススタッフのコストが必要です。

それに対して、io.netが構築した分散型計算プラットフォームプロジェクトは、構築コストにおいて明らかな利点を持ち、初期投資と運営コストを大幅に削減でき、小規模チームが自分たちのAIモデルを構築する可能性を生み出します。

分散型GPUプロジェクトは、既存の分散リソースを利用し、ハードウェアやインフラの集中投資を必要としません。個人や企業は、未使用のGPUリソースをネットワークに提供することで、高性能計算リソースの集中調達や展開の必要性を減少させます。

さらに、運営コストの面では、従来のGPUクラスターは継続的なメンテナンス、電力、冷却費用が必要です。一方、分散型GPUプロジェクトは分散リソースを利用することで、これらのコストを各ノードに分散させ、単一の組織の運営負担を軽減します。

io.netのドキュメントによれば、io.netは独立したデータセンター、暗号通貨マイナー、Filecoin、Renderなどの他のハードウェアネットワークから未利用のGPUリソースを集約することで、運営コストを大幅に削減しています。さらに、Web3の経済的インセンティブ戦略により、io.netは価格設定において大きな優位性を持っています。 画像 分散型計算

歴史を振り返ると、過去には経済的インセンティブがなくても多くの参加者を引き付け、重要な成果を生み出した分散型計算プロジェクトがいくつかありました。例えば:

Folding@home:これはスタンフォード大学が発起したプロジェクトで、分散計算を通じてタンパク質の折りたたみ過程をシミュレーションし、科学者が病気のメカニズムを理解するのを助けることを目的としています。特に、タンパク質の折りたたみ異常に関連する病気(アルツハイマー病、ハンチントン病など)に焦点を当てています。COVID-19パンデミックの間、Folding@homeプロジェクトは大量の計算リソースを集め、新型コロナウイルスの研究を支援しました。

BOINC (Berkeley Open Infrastructure for Network Computing):これはオープンソースのソフトウェアプラットフォームで、天文学、医学、気候科学などのさまざまな分野のボランティアやグリッド計算プロジェクトをサポートしています。ユーザーは未使用の計算リソースを提供し、さまざまな研究プロジェクトに参加できます。

これらのプロジェクトは、分散型計算の実現可能性を証明するだけでなく、分散型計算の巨大な発展の可能性を示しています。

社会のさまざまな分野から未利用の計算リソースを動員することで、計算能力を大幅に強化でき、Web3の経済モデルを革新に取り入れることで、経済的にさらに大きなコスト効果を実現できます。Web3の経験は、合理的なインセンティブメカニズムがユーザーの参加を引き付け、維持するために重要であることを示しています。

インセンティブモデルを導入することで、相互に助け合う共存のコミュニティ環境を構築でき、ビジネスの規模拡大を促進し、技術の進歩を正の循環で推進できます。

したがって、io.netはインセンティブメカニズムを導入することで、広範な参加者を引き付け、共同で計算力を提供し、強力な分散型計算ネットワークを形成することができます。

Web3の経済モデルと分散型計算の可能性は、io.netに強力な成長の原動力を提供し、効率的なリソース利用とコスト最適化を実現します。これは技術革新を促進するだけでなく、参加者に価値を提供し、io.netがAI分野の競争で際立ち、巨大な発展の可能性と市場スペースを持つことを可能にします。

02.**** *io.net技術*

クラスター

GPUクラスターは、複雑な計算をネットワークを介して複数のGPUに接続し、協力的な計算クラスターを形成することを指します。この方法は、複雑なAIタスクの処理効率と能力を大幅に向上させます。

クラスター計算は、AIモデルの訓練速度を加速するだけでなく、大規模データセットの処理能力を強化し、AIアプリケーションをより柔軟でスケーラブルにします。

従来のインターネットでAIモデルを訓練する過程では、大規模なGPUクラスターが必要です。しかし、このクラスター計算モデルを分散型に転換する際には、一連の技術的課題が浮上します。

従来のインターネット企業のAI計算クラスターと比較して、分散型のGPUクラスター計算は、ノードが異なる地理的位置に分散している可能性があるため、ネットワークの遅延や帯域幅の制限の問題に直面し、ノード間のデータ同期速度に影響を与え、全体の計算効率に影響を及ぼす可能性があります。

さらに、各ノード間でデータの一貫性とリアルタイム同期を維持することは、計算結果の正確性を確保するために非常に重要です。したがって、分散型計算プラットフォームは、高効率なデータ管理と同期メカニズムを開発する必要があります。

また、分散した計算リソースを管理し、計算タスクが効果的に完了できるように調整することも、分散型クラスター計算が解決すべき問題です。

io.netはRayとKubernetesを統合することで、分散型のクラスター計算プラットフォームを構築しました。

Rayは分散計算フレームワークとして、複数のノードで計算タスクを実行する役割を担い、データ処理と機械学習モデルの訓練プロセスを最適化し、タスクが各ノードで効率的に実行されることを保証します。

Kubernetesはこのプロセスで重要な管理役割を果たし、コンテナアプリケーションのデプロイと管理を自動化し、計算リソースが需要に応じて動的に割り当てられ、調整されることを保証します。

この体系において、RayとKubernetesの組み合わせは、動的かつ弾力的な計算環境を実現します。Rayは計算タスクが適切なノードで効率的に実行されることを保証し、Kubernetesは全体のシステムの安定性とスケーラビリティを確保し、ノードの追加や削除を自動的に処理します。

この協調作用により、io.netは分散型環境において一貫性があり信頼性の高い計算サービスを提供でき、データ処理やモデル訓練の面でユーザーの多様なニーズに応えることができます。

この方法により、io.netはリソースの使用を最適化し、運営コストを削減し、システムの柔軟性とユーザーのコントロールを向上させました。ユーザーは、基盤となるリソースの具体的な構成や管理の詳細を気にすることなく、さまざまな規模の計算タスクを簡単にデプロイし、管理できます。

この分散型計算モデルは、RayとKubernetesの強力な機能を活用し、io.netプラットフォームが複雑で大規模な計算タスクを処理する際の効率性と信頼性を確保します。 プライバシー

分散型クラスターのタスク調整ロジックの使用シーンは、データセンターのクラスターのロジックよりもはるかに複雑であり、データと計算タスクのネットワーク内での伝送が潜在的なセキュリティリスクを増加させるため、分散型クラスターはセキュリティとプライバシー保護を考慮する必要があります。

io.netはメッシュプライベートネットワークチャネルの分散型特性を利用することで、ネットワークのセキュリティとプライバシーを向上させています。このようなネットワークでは、中心集中点やゲートウェイがないため、ネットワークが直面する単一障害点のリスクが大幅に低下し、一部のノードに問題が発生しても、ネットワーク全体は運営を維持できます。

データはメッシュネットワーク内で複数の経路を通じて伝送され、この設計によりデータのソースや宛先を追跡する難易度が増し、ユーザーの匿名性が強化されます。

さらに、データパケットの埋め込みや時間混乱技術(Traffic Obfuscation)を採用することで、メッシュVPNネットワークはデータの流れのパターンをさらに曖昧にし、盗聴者がトラフィックパターンを分析したり、特定のユーザーやデータフローを識別したりすることを困難にします。

io.netのプライバシーメカニズムがプライバシー問題を効果的に解決できるのは、これらが共同で複雑かつ変化に富んだデータ伝送環境を構築し、外部の観察者が有用な情報をキャッチすることを難しくするからです。

同時に、分散型構造はすべてのデータが単一のポイントを通過するリスクを回避し、この設計はシステムの堅牢性を向上させるだけでなく、攻撃される可能性を低下させます。また、データの複数経路伝送とトラフィックの混乱戦略は、ユーザーのデータ伝送に追加の保護層を提供し、io.netネットワークの全体的なプライバシーを強化します。

03.**** *経済モデル*

IOはio.netネットワークのネイティブ暗号通貨およびプロトコルトークンであり、エコシステム内の2つの主要な主体(AIスタートアップ企業と開発者、計算リソース提供者)のニーズを満たすことができます。

AIスタートアップ企業と開発者にとって、IOはクラスターのデプロイメントの支払いプロセスを簡素化し、より便利にします。また、彼らは米ドルに連動したIOSD Creditsを使用して、ネットワーク上の計算タスクの取引手数料を支払うことができます。io.net上にデプロイされた各モデルは、微小なIOトークンの取引を通じて推論を行う必要があります。

供給者、特にGPUリソースの提供者にとって、IOトークンは彼らのリソースが公平に報われることを保証します。GPUがレンタルされる際の直接的な収益や、空いているときにネットワークモデルの推論に参加することで得られる受動的な収益など、IOトークンはGPUの貢献に対して報酬を提供します。

io.netエコシステムにおいて、IOトークンは支払いとインセンティブの媒介であるだけでなく、ガバナンスの鍵でもあります。これにより、モデルの開発、訓練、デプロイメント、アプリケーション開発の各段階がより透明で効率的になり、参加者間の相互利益を確保します。

このようにして、IOトークンはエコシステム内の参加と貢献を促進するだけでなく、AIスタートアップ企業やエンジニアに包括的なサポートプラットフォームを提供し、AI技術の発展と応用を推進します。

io.netはインセンティブモデルに力を入れ、エコシステム全体が正の循環を保つことを保証しています。io.netの目標は、ネットワーク内の各GPUカードに対して、米ドルで表現された直接的な時間単価を設定することです。これには、明確で公平かつ分散型のGPU/CPUリソースの価格設定メカニズムを提供する必要があります。

双方向市場として、インセンティブモデルの核心は、2つの大きな課題を解決することを目指しています:一方では、GPU/CPU計算能力の高額なレンタルコストを削減すること、これはAIおよびML計算能力の需要拡大にとって重要な指標です;もう一方では、GPUクラウドサービスプロバイダーにおけるGPUノードの不足問題を解決することです。

したがって、設計原則として、需要側の考慮には競合他社の価格設定と可用性が含まれ、市場で競争力があり魅力的な選択肢を提供し、ピーク時やリソースが逼迫しているときに価格を調整します。

計算リソースの供給側では、io.netは2つの重要な市場に焦点を当てています:ゲーマーと暗号GPUマイナーです。ゲーマーは高性能なハードウェアと高速なインターネット接続を持っていますが、通常は1枚のGPUカードしか所有していません。一方、暗号GPUマイナーは大量のGPUリソースを持っていますが、インターネット接続速度やストレージスペースに制限がある場合があります。

したがって、計算リソースの価格設定モデルには、ハードウェア性能、インターネット帯域幅、競合他社の価格設定、供給の可用性、ピーク時の調整、コミットメント価格、地域差などの多次元要因が含まれます。また、ハードウェアが他の作業証明暗号マイニングを行う際の最適な利益も考慮する必要があります。

将来的には、io.netは完全に分散型の価格設定の提案をさらに提供し、マイナーのハードウェアのためにspeedtest.netのようなベンチマークツールを作成し、完全に分散型で公平かつ透明な市場を構築する予定です。

04.**** *参加方法*

io.netはIgnitionイベントを開始しました。これはio.netコミュニティのインセンティブプログラムの第一段階です。目的はIOネットワークの成長を加速することです。

プログラムは合計で3つの報酬プールを設けており、それぞれは完全に独立しています。

  • ワーカー報酬(GPU)

  • ギャラクシータスク報酬

  • Discordロール報酬(エアドロップティアロール)

この3つの報酬プールは完全に独立しており、参加者はそれぞれの報酬プールから報酬を得ることができ、同じウォレットを各報酬プールに関連付ける必要はありません。 GPUノード報酬

すでに接続されているノードについて、エアドロップポイントは2023年11月4日から2024年4月25日までのイベント終了時に計算されます。Ignitionイベント終了時に、ユーザーが獲得したエアドロップポイントはすべてエアドロップ報酬に変換されます。

エアドロップポイントは4つの側面を考慮します:

A. 雇用時間の比率(Ratio of Job Hours Done - RJD):2023年11月4日からイベント終了までの雇用された総時間。

B. 帯域幅(Bandwidth - BW):帯域幅速度範囲に基づいてノードの帯域幅をランク付けします:

低速:ダウンロード速度100MB/秒、アップロード速度75MB/秒。

中速:ダウンロード速度400MB/秒、アップロード速度300MB/秒。

高速:ダウンロード速度800MB/秒。

C. GPUモデル(GPU Model - GM):GPUモデルに基づいて決定され、性能が高いGPUほどポイントが多くなります。

D. 成功稼働時間(Uptime - UT):2023年11月4日からワーカーに接続されてからイベント終了までの成功稼働の総時間。

なお、エアドロップポイントは2024年4月1日頃にユーザーが確認できる予定です。 ギャラクシータスク報酬(Galxe)

ギャラクシータスクの接続先:https://galxe.com/io.net/campaign/GCD5ot4oXPAt Discordロール報酬

この報酬はio.netのコミュニティ管理チームによって監視され、ユーザーはDiscordで正しいSolanaウォレットアドレスを提出する必要があります。

ユーザーの貢献度、活動度、コンテンツ制作などに基づいて、他の活動に参加することで相応のエアドロップティアロールのレベルを獲得します。

05.**** *まとめ*

全体として、io.netや類似の分散型AI計算プラットフォームはAI計算の新しい章を開いており、技術実現の複雑性、ネットワークの安定性、データセキュリティの課題にも直面しています。しかし、io.netはAIビジネスモデルを根本的に変える潜在能力を持っています。これらの技術が成熟し、計算コミュニティが拡大するにつれて、分散型AI計算はAIの革新と普及を推進する重要な力になると信じています。

ChainCatcherは、広大な読者の皆様に対し、ブロックチェーンを理性的に見るよう呼びかけ、リスク意識を向上させ、各種仮想トークンの発行や投機に注意することを提唱します。当サイト内の全てのコンテンツは市場情報や関係者の見解であり、何らかの投資助言として扱われるものではありません。万が一不適切な内容が含まれていた場合は「通報」することができます。私たちは迅速に対処いたします。
チェーンキャッチャー イノベーターとともにWeb3の世界を構築する