AIの「沈下」はWeb3の機会ですか?
著者:Haotian
最近、AI業界を観察していると、ますます「下沉」する変化を発見しました:元々は計算力の集中と「大」モデルの主流コンセンサスから、ローカル小モデルとエッジコンピューティングに偏った枝分かれが進化しています。
この点は、Apple Intelligenceが5億台のデバイスをカバーし、MicrosoftがWindows 11専用の3.3億パラメータの小モデルMuを発表し、Google DeepMindのロボット「脱ネット」操作などからも見て取れます。
何が違うのでしょうか?クラウドAIはパラメータの規模とトレーニングデータを競い、資金を投入する能力がコア競争力です;ローカルAIはエンジニアリングの最適化とシーン適応を競い、プライバシー、信頼性、実用性の面でさらに進展します。(主要な汎用モデルの幻覚問題は、垂直シーンの浸透に深刻な影響を与えます)
これは実際にweb3 AIにとってより大きな機会をもたらします。元々、皆が「汎用化」(計算、データ、アルゴリズム)能力を競っていた時、自然と伝統的な巨大企業に独占されていました。分散型の概念を持ち込んでGoogle、AWS、OpenAIなどと競争しようとするのは、まさに夢物語です。結局、リソースの優位性、技術の優位性、さらにはユーザー基盤もありません。
しかし、ローカライズされたモデルとエッジコンピューティングの世界に入ると、ブロックチェーン技術サービスが直面する状況は大きく異なります。
AIモデルがユーザーのデバイス上で動作する際、出力結果が改ざんされていないことをどう証明するのか?プライバシーを保護しつつモデルの協力を実現するにはどうすればよいのか?これらの問題はまさにブロックチェーン技術の強みです…
最近、Panteraが10Mを投資した@GradientHQが発表したデータ通信プロトコルLatticaなど、いくつかのweb3 AI関連の新プロジェクトに注目しています。これは中央集権的なAIプラットフォームのデータ独占とブラックボックス問題を解決するためのものです;@PublicAIの脳波デバイスHeadCapは、リアルな人間データを収集し、「人工検証層」を構築し、すでに14Mの収入を実現しています;実際、すべてがローカルAIの「信頼性」問題を解決しようとしています。
一言で言えば:AIが本当に「下沉」して各デバイスに到達したとき、分散型協力は概念から必需品に変わるのでしょうか?




