NGC Ventures 最新研究:9 月になりました。AI 起業に対する冷静な考察と提案
著者:CherryIn、投資マネージャー、NGC Ventures
この記事の初稿は8月末の休暇中に完成し、粗雑に公開した後、多くの指摘を受けたため、著者は一部の内容を増改削除しました。恥をかかないようにするためです。
この記事の内容は、主に投資の視点からAI業界の現状を評価し、異なる企業の技術/製品の路線を反省し、推測し、AI業界の企業の戦略を抽象的にまとめたものです。したがって、具体的な技術に関する部分には漏れがあるかもしれませんので、ご了承ください。
とはいえ、論文を発表できる数社の大企業が互いに争っている状況では、この記事の内容の正誤を評価できる人はいないようです。まるでGPT-4がGPT-3.5に点数をつけるようなもので、見た目は合理的ですが、考えてみると少し抽象的です。
したがって、著者はこの記事を不確実性のある業界に関する情報収集から形成された「判断」として捉えることを提案します。判断である以上、立場は明確でなければならず、意味のあるものでなければなりません。判断が正しいかどうかは、時間が検証することにしましょう。
著者は常に考えています:新しい業界はノイズが多く、頭を使い、判断を下すことは常に間違いではありません。判断問題において、盲目的に推測する正解率は50%であり、3回連続で間違える確率は12.5%です。たとえコインを投げるレベルの判断でも、意味があります。判断を下すことは恐れるべきではなく、判断の正確性がコインを投げるレベルを下回ることが最も恐ろしいことです。
この記事を正式に始める前に、以下の作業に感謝の意を表します。これらはこの記事に貴重なインスピレーションとデータソースを提供してくれました。もちろん、この記事の多くの推論はこれらの作業に基づいているため、もしその中に誤りが含まれていたり、著者の理解に誤りがあった場合、この記事の推論も堅実ではなくなる可能性がありますので、読者は自己判断をお願いします。この記事は投資のアドバイスを構成するものではなく、投資のアドバイスを構成することも難しいです。
- Chain-of-Thought Hub: A Continuous Effort to Measure Large Language Models' Reasoning Performance(https://arxiv.org/abs/2305.17306)
- LIMA: Less Is More for Alignment(https://arxiv.org/abs/2305.11206)
- June 2023, A Stage Review of Instruction Tuning(https://yaofu.notion.site/June-2023-A-Stage-Review-of-Instruction-Tuning-f59dbfc36e2d4e12a33443bd6b2012c2)
- GPT-4 Architecture, Infrastructure, Training Dataset, Costs, Vision, MoE(https://www.semianalysis.com/p/gpt-4-architecture-infrastructure)
さて、この記事を正式に始めましょう。
大モデル:サイバー・ロケットの発射
2023年にAIについて議論する第一歩は、大モデルのスタートアップが果たしてまだ可能かどうかを議論することです。
大モデル(の事前学習)は現在、ロケットを発射する問題に変わりました。資金があれば、方向が正しければ、誰でもできると言えます。大モデルのトレーニングは、サイバー・ロケットを発射することに他なりません。
常識に反することは、投資家が大モデルのトレーニングの難しさを過小評価し、実際のロケットの発射の難しさを過大評価していることです。同じ6000万ドルのコストで、投資家はロケットの打ち上げが失敗しても再挑戦の機会があると考えますが、大モデルのトレーニングが失敗すると資金の浪費と見なされます。
GPT-4はOpenAIのGPU利用効率(約30%と報じられています)においても、6000万ドルを消費しました。これは{性能=効率×コスト}の問題であり、性能は壁であり、他のスタートアップが30%×6000万=1800万ドル以上の性能を実現できなければ、ユーザーは直接GPT-4を使用した方が良いのです。
現在、多くの大モデルを訓練している企業の資金調達ラウンドは100万ドルから500万ドルの範囲にあります。つまり、最大の資金調達額を持つ企業でも、弾薬量は一度の発射を支えるのに十分なだけです。この発射のGPU利用率が100%に達しても、GPT-4を超えるのは難しいでしょう。
この観点から見ると、ロケットを発射する方がやりやすいです。現在、大部分のロケットは運搬ロケットであり、衛星を宇宙に運ぶため、単回の積載量は限られています。そのため、小さなロケット会社は他の人が発射できなかった衛星の単独契約を受けることができます。
大モデルは異なります。大モデルの横展開の限界コストは計算能力のコストだけであり、計算能力のコストは弾力的に拡張可能です。つまり、大モデル企業にとって、各契約の利益はほぼ追加コストをかけずに得られるものであり、受け入れ能力は非常に大きいです。新しく設立された質の低い大モデル企業にとっては、溢れた需要を受けるのは難しいでしょう。
トレーニングコストが大幅に下がらない限り、GPT-4の全アーキテクチャを知っていても、多くの企業が短期間で市場に投入できる大モデルを作るのは難しいでしょう。
カスタマイズ:『ウィナー・テイク・オール』問題に直面する
ハードウェア業界では、カスタマイズされた需要を通じて初期の利益を実現し、その後初期の利益を通じて技術的な突破(または追いつく)を実現するという一般的な現象があります。しかし、大モデル業界のカスタマイズは新規参入者の道にはなりにくいです。
この判断について説明するのは非常に簡単です:ほとんどの微調整されたモデルはGPT-4に追いつけず、追いついたとしても、GPT-4を直接使用するコストの方が低く、必要な人員も少なく、運やデータの必要性も少ないです。GPT-4と他のモデルの性能差が存在する限り、カスタマイズは大モデル企業の道にはなりません。
非常に典型的な例はJasperで、微調整されたGPT-3を使用して企業顧客にサービスを提供していますが、OpenAIがChatGPT(GPT-3.5)を公開した後、そのユーザーは急速に流出しました。なぜなら、Jasperの成果物はGPT-3.5に簡単なプロンプトを入力することで得られ、企業内部での使用に限られた「劣ったバージョン」を使用する必要がなかったからです。
新しい企業に比べて、Jasperは少なくともGPT-3からGPT-3.5への空白期間を利用して成長する機会がありました。しかし、現在の新しい企業は、低コストで高速なGPT-3.5と高性能なGPT-4の圧力に同時に直面しています。
したがって、カスタマイズを通じて利益を蓄積し、技術的な突破を実現することに期待を寄せるルートは、生存確率が非常に低いです。
微調整:必要だが、信じすぎないで
現在のAI業界は微調整に対して非現実的な期待を抱いており、この期待は具体的な技術実現とマクロな技術のリズムの両方から過大評価されています。
業界で現在議論されている微調整は、ほとんどが「事前学習モデルに基づいて、人間の意図に合った回答を生成すること」を指します。この微調整は「アラインメント」と呼ばれ、人間の意図に回答を合わせることを意味し、大モデルに知恵を加えることではありません。
多くの論文の研究結果によれば、大モデルの知識は主に事前学習から来るべきであり、微調整は主にアラインメントに使われるべきです。
簡単に説明すると、事前学習は脳の容量を決定し、微調整は母国語を決定します。事前学習モデルの微調整は「文盲を排除する」プロセスです。
しかし、現在業界では微調整をモデルに「知恵を加える」方法と見なすことがよくあります。つまり、微調整によってモデルの性能を向上させ、モデルの知識を増やすことで、これによって「人工知能の聖杯」に到達できると考えています。この考え方は少し偏っています。
まず、モデル自体の性能は向上しておらず、人間の意図によりよく合わせることができるだけです。タスクの複雑さがモデルの性能を超える場合、微調整は期待通りの結果を得ることができません。人間の脳に量子計算をさせるようなもので、できないのは教育の問題ではありません。
次に、「意図のアラインメント」の部分で「知識の補充」を行うことは、「オウム返し」に似た効果を持ちます。つまり、モデルは専門家の話し方を模倣するだけで、その意味を理解しているわけではありません。多くの業界では「オウム返し」で良い解決策を得ることができています(結局、大多数の業界はそれほど複雑ではありませんから…)、しかしこれは明らかに私たちが長期的に追求すべき結果ではありません。
最後に、「追加のデータセットを補充し、モデルの性能を向上させ、モデルの知識を増やす」ためのトレーニングは、モデルが「増分学習/継続学習」の能力を持つことを示すべきです。すなわち、モデルの全パラメータは増分データセットを通じて最適化されることができます。これはいわゆる「指示微調整」とは異なる概念です。
総じて、微調整は非常に重要ですが、現在の微調整に対して「信仰」を持つのは間違いです。特に、現在の微調整を聖杯と呼ぶことには、「今の物理学の大厦の上に漂っているのは二つの雲だけ」という意味合いがあります。
一歩引いて考えると、「知恵を加える」需要が本当に指示微調整で解決できるのであれば、簡単なベクトル検索を行い、知識を文脈に詰め込み、さらにいくつかのプロンプトテンプレートを簡単に作成すれば、同じかそれ以上の効果が得られる可能性が高いです。
皆が微調整を好むのは、現代における錬金術の技術の復興かもしれません…
大モデルの展望:四則演算
(注意:この部分の内容は完全にDylan Patelのリークデータに基づいており、信頼性はまだ検証できません)
GPT-4のトレーニングはNVIDIAのAシリーズに基づいており、トレーニング効率は30%、トレーニング時間は約2ヶ月、コストは約6000万ドル、総パラメータ量は{1.7兆=1100億×16の専門モデル}、単一の問題を処理するためのパラメータは2800億程度です。
つまり、いくつかの重要なパラメータが大モデルのトレーニングの構図を変える要因となります。
- トレーニング効率:30%から60%に向上すれば、時間を半分に短縮できます。
- 計算能力の密度向上:AシリーズからHシリーズ、さらにAI専用カードに切り替えることで、計算能力の密度が向上し、多くのアーキテクチャ上の効率に影響を与える問題が解決されます。
- 計算コストの低下:NVIDIAの創業者である黄氏がグラフィックカードの値引きを行い、コストが大幅に低下します。
- パラメータ効率の向上:モデルのパラメータ効率には向上の余地があり、過去の新モデルが古いモデルに対してパラメータ効率を通常数倍向上させることができることを参考にすると、GPT-4の30%のパラメータで同様の効果が得られる可能性があります。
以上のことから、ゼロからGPT-4レベルの性能を持つモデルをトレーニングするコストには10〜20倍の最適化の余地があり、300万ドル〜600万ドルに圧縮できる可能性があります。このコストはスタートアップ企業や大企業の費用管理にとって、より受け入れやすいものです。
この変化には約2年の時間が必要です。
現在、主流の大モデル技術は依然としてトランスフォーマーに基づいており、基盤となるインフラは変わっていません。錬金術とパラメータの増加による奇跡的な思考はまだ尽きていません。GPT-4のトレーニングは計算能力の制約が非常に大きい中で行われており、トレーニング時間も十分ではありません。
もしパラメータがトレーニング時間に対して線形に増加するのであれば、GPT-4のアーキテクチャに類似したモデルのパラメータ上限は約10兆程度になる可能性があります。つまり、トレーニング時間が2倍(×2)、並列グラフィックカードが2倍(×2)、トレーニング効率が1.5倍(×1.5)、パラメータ効率が1.5倍(×1.5)になると、最終的に10倍の結果が得られます。シリコンバレーのリスク志向のスタイルに従えば、このパラメータ量はおそらく1年以内に達成されるでしょう。性能が向上するかどうかは関係ありません。
しかし、10兆パラメータに達した場合、LLMがパラメータを増やすアプローチで奇跡を起こすことができるかどうかは、完全に未知の事柄です。
もしパラメータ量がモデル性能の向上に対して限界的に減少するのであれば、10兆はおそらく一つの壁です。しかし、パラメータ量がモデル性能の向上に対して限界的に増加するという仮説もあり、「もし人が十分に賢ければ、何を学んでも早い」と似ています。前者はまだ良いですが、後者が真実であれば、モデル性能は指数関数的に向上する可能性があり、その時に何が起こるかは完全に予測不可能です。
錬金術の予測は難しいですが、企業戦略のリズムを予測するのは容易です。総パラメータ10兆のモデルは、Google/MS/APPLのような巨大企業にとっても、小さなOpenAIにとっても、画期的な終点であり、立ち止まって技術探求を行う位置です。
企業や資本のリスクに対する嗜好は「耐えられる時間」に換算できます。もし全体の耐えられる時間が激しく費用を燃焼している場合、6ヶ月を超えることは難しいです。人間の技術成長速度は十分に速くなく、通常は5年またはそれ以上の周期で進行します。したがって、5年以内にモデルの極限パラメータ量は推定できるはずで、20兆〜50兆になるでしょう。再び技術やアーキテクチャの大きな突破がない限り、この数量級を超える可能性は低いです。
マルチモーダル:部屋の中の象
マルチモーダルは部屋の中の象であり、競技の構図に深刻な影響を与える可能性があります。
マルチモーダルの簡単な定義は、さまざまなモーダル情報の入力と出力をサポートすることです。この定義は非常に緩やかで、市場に出回っているいくつかの製品は、実際にはChatBotの外側にOCRが追加されているだけです。完全にマルチモーダルの定義に合致するモデルもありますが、その性能は称賛に値しません。GPT-4の画像マルチモーダル入力能力でさえ、まだ広範囲に公開されておらず、この機能が非常に安定しているわけではないことがわかります。
しかし、マルチモーダルの発表は遠い未来のことではありません。GPT-5はおそらくネイティブにマルチモーダルをサポートするものであり、構造を再設計し、再トレーニングが必要です。前述の推論に基づくと、大モデルのパラメータには10倍〜50倍の成長の余地があり、その中にマルチモーダル能力を組み込むことは十分可能です。したがって、高可用性で高性能なマルチモーダルモデルが2年以内に登場することが予想され、楽観的に見れば1年程度で実現するでしょう。
マルチモーダルは部屋の中の象であり、最終的にそのようなものが存在することは誰もが知っていますが、多くの製品/研究/戦略はその存在を無視しており、重要な部分で誤判断が生じています。
たとえば、単一の画像モデルは理論的にはマルチモーダルモデルの厳しい圧力を受けることになりますが、現在のところほとんどの研究/投資はこの問題を無視しており、画像モデルに特化した企業に過大評価を与えています。これらの企業は将来的に技術的な壁を失い、サービスプロバイダーに転換する可能性が高く、その評価体系は技術企業ではなくサービスプロバイダーを参考にすべきです。
「投資は人を見るべきで、同じチームがビジネスの転換を行うことができる」という話をするのであれば、私が言わなかったことにしてください。伝説は常に存在しますが、研究を行う際には伝説を信じすぎるべきではありません。
誰がGPT-4をトレーニングできるのか:誰でもできるが、必要ない
錬金術はそれほど時間がかからず、大企業は皆グラフィックカードを購入しています。非常に明白なことは、1年後には大企業は皆GPT-4レベルのモデルをトレーニングする能力を持つということです。しかし、実際にトレーニングするかどうかは別の問題です。
ゲーム業界には「原神をプレイするなら原神をプレイする」という古典的な命題があります。つまり、プレイヤーが原神をプレイするか、原神の競合製品をプレイするかを選択できる場合、競合製品が原神よりも劣っている場合、原神をプレイするということです。
この「ウィナー・テイク・オール」の考え方は、大モデル業界にも当てはまります。ある企業がOpenAIの後を追い、半年の研究開発を経て、自社のGPT-4に匹敵する90%の性能を持つ大モデルを市場に投入しようとした場合、その企業は以下のような問題に直面します。
- OpenAIにはクラウドリソースの規模の優位性があり、コストが低い
- OpenAIのAPIはすでに製品コードに大量に使用されており、変更が難しい
- その企業の製品性能は依然としてGPT-4を超えていない
- OpenAIの次世代製品(おそらくGPT-5)が間もなく発表される
このように、その企業の圧力は非常に大きいです。GPT-4をトレーニングするよりも、次世代モデル(GPT-5に対抗する)に賭けた方が良いでしょう。すると問題は「同類競品の問題」から「技術革新の問題」に変わります。これは小企業には耐えられない重荷です。
したがって、「誰がGPT-4をトレーニングできるのか」という議論は戦略的に無意味な問いです。この問題を考えるよりも、より確実で機会のある方向を探す方が良いでしょう。
AIスタートアップへのアドバイス:性能を優先し、停滞を避ける
著者は以前、langchainについて多くの記事を書き、その根本的な理由はlangchainが開発者に性能向上の余地を与えなかったからです。「汎用性フレームワーク」と美名を冠し、汎用性を確保するために多くの大モデルの性能向上の余地を放棄しました。たとえば、多輪対話や微調整の実現におけるフォーマット制御などです。guidance/Auto-GPT/BabyAGIなども同様で、「一生使えるフレームワーク」を目指しています。
客観的な事実は、OpenAIが5月にFunction Callingを発表し、多くのコードの面倒な部分に対してより良い実現方法が提供されたことです。より良い実現方法を得るための代償は、製品コードの重要な部分を再構築することです。8月には、OpenAIがGPT-3.5の微調整の権限を発表し、出力を正確に制御する必要がある部分に新たな潜在的な解決策が生まれました。
したがって、スタートアップ企業は重要な選択肢に直面しなければなりません。①性能を向上させ、製品を再構築し続けるのか、②新機能の使用を減らし、常に古い機能を使用して開発するのか。
新技術の応用において、「開発」は単にコードを書くプロセスだけでなく、製品機能/戦略面での「上限」をも意味します。扱える性能が高いほど、製品の理論的機能が増え、戦略的柔軟性が高まります。
技術の進展は予測できず、わずかな技術革新が競争構図に高度に敏感な変化をもたらす可能性があるため、スタートアップ企業は技術の進展に対して反脆弱な能力を持つべきです。
------要するに:性能優先、停滞を避ける。開発面では新機能を多く使用し、製品面では新機能が何を実現できるかを考え、戦略面では新機能が戦略に与える影響を考慮することです。
《過秦論》では、秦朝が成立後に天下の金属兵器を収集し、12体の銅人を鋳造して民間の反乱の可能性を排除したことが言及されています。しかし、秦朝は短命の王朝として有名です。変化を無視するよりも、変化を重視する方が有利です。
AIスタートアップへのアドバイス:安心してアプリケーションを作る
スタートアップ企業がアプリケーションを作る際に非常に一般的なリスクは、大企業の参入です。ここでの大企業には、MetaやByteDance、Tencentなどのアプリケーションの巨人だけでなく、AI業界の上流にあたるOpenAIも含まれます。
大企業が参入する理由は通常2つあります:製品機会の配置と、上流から下流への切り替えです。
「製品機会の配置」は文字通りの意味で、大企業がこの方向が価値があると感じて取り組むことです。
「上流から下流への切り替え」は多くの場合、やむを得ない選択であり、OpenAIに対抗する大モデルを自社で開発したが、ウィナー・テイク・オールの問題によりユーザーがいないため、費用を浪費し、収益がなく、データが不足し、性能が徐々に劣化することになります。この時、下流に切り替え、自社の技術を使用して具体的なアプリケーションを開発することが唯一の選択肢となります。
歴史的な経験に基づくと、組織構造の問題から、企業が下流に近づくほど技術が劣化し、技術が劣化するほど下流に進まざるを得なくなります。これらのいわゆる技術企業は最終的にアプリケーション層の企業と同じエコロジカルニッチを争うことになります。
しかし、アプリケーション層の戦場では、AI技術の登場が非常に短期間であり、効果的で再利用可能な規模の優位性が存在しないため、大企業とスタートアップ企業の出発点はほぼ同じです。大企業に比べて、スタートアップ企業は効率が高く、洞察が深いため、優位性を占めやすいです。
注目すべき状況は、MS Azureが現在ほぼすべての宣伝資料をOpenAIに基づいて展開していることであり、これほど大きな企業がOpenAIに完全に依存していることは、スタートアップ企業がAI分野で天然の優位性を持っていることを示しています。
もちろん、特定のクラウドプロバイダーはスタートアップ企業が主導することを受け入れず、市場をすべて自分たちで取り込もうとするかもしれません。そのコストは高く、速度は遅く、目の前の脅威ではありません。
実際、確かにいくつかのAIアプリケーションの分野は非常に短命ですが、まだ多くの長命の分野が発掘されておらず、AIのアプリケーションも必ずしもウィナー・テイク・オールではありません。アプリケーションからプラットフォームや技術に延伸することも、より実行可能なルートです。
したがって、大企業がアプリケーション層に侵入する能力を理性的に見るべきです。私たちの提案は、AIスタートアップ企業は安心してアプリケーションを作ることができるということです。
AIスタートアップへのアドバイス:製品のライフラインに注意
前述のように、AIスタートアップ企業は安心してアプリケーションを作ることができますが、AIモデルの性能問題を考慮し、停滞を避ける必要があります。この状況は、AI製品が数ヶ月内に需要の基盤を失い、徐々に衰退する可能性があることを直接示しています。このような状況は頻繁に発生する可能性があります。
AIアプリケーションは大モデルのサービスを使用する必要があり、大モデルの性能は絶えず向上しています。この向上は「速度」などの単一の次元の改善ではなく、出力の質、出力の長さ、出力の制御性などの全方位の変化です。技術の顕著なアップグレードは、既存のアプリケーション層製品の技術的な劣化を引き起こし、新しい機会と競争相手を生み出します。
私たちはAIアプリケーションが戦略/製品/技術の上で優位性と必要性を保つ時間を「ライフライン」と呼びます。
以下はライフラインが短い例です:
- ChatGPT/Claudeがファイルアップロードをサポートした後、ChatPDFは必要性を失う
- Office365がCopilotをサポートした後、AIでPPTを作成する製品は優位性を失う
- GPT-3.5が登場した後、Jasperは必要性を失う
AI業界の発展が非常に速いことを考慮すると、ライフラインが限られているのは常態です。したがって、ライフラインが限られているという事実を受け入れ、できるだけライフラインが長い方向に発展することが、長期的な優位性と製品の必要性を維持するのに有利です。
一般的に、ライフラインを簡単に3/6/12ヶ月のレベルに分類できます。
- 3ヶ月:大企業が間に合わない機能(例:office/ChatGPTがまだ実装していない機能)
- 6ヶ月:実現が難しく、既存のソリューションに組み込むことができないが、優位性/必要性はAI性能の向上に伴い消失する(例:汎用AIフレームワーク)
- 12ヶ月:優位性/必要性が長期的に存在し、大企業/技術の発展に影響されにくい(例:Hugging Face)
* プラットフォーム型製品のライフサイクルは必ずしも長くはなく、結局のところプロンプトストアもプラットフォームです。
スタートアップ企業は方向性を決定する際に、6ヶ月レベルのライフラインがあれば十分です。12ヶ月レベルのライフラインは出会うことが難しいです。
製品のライフラインが尽きると、一般的に2つの状況があります。第一の状況は優位性が消失し、製品を再構築して技術をアップグレードする必要がある場合です。これについては前述の「性能を優先」を参照してください。第二の状況は必要性が消失し、製品が徐々に取って代わられる場合です。この時、製品にはまだ数ヶ月の「運営寿命」があり、スタートアップ企業が次の方向を選択するのに十分です。
AIスタートアップへのアドバイス:Web3+AIは可能である
現在、Web3+AIをテーマにした起業プロジェクトは多数存在しますが、技術の発展の不確実性と市場の初期性を考慮すると、Web3+AIの話題には今後多くの変数があります。
この記事は不確実性の中で高確率で正しい確実性を探すことを目的としているため、著者は引き続きアイデアを提供し、スタートアップ企業や興味のある研究者に参考にしてもらえる可能性のあるテーマや方向性を提案したいと思います。
- 非主権化/非中央集権化
現在、AI業界のリーダーはすべてクローズドソースモデルを提供しており、その継続的なサービスの安定性、透明性、中立性は制御できません。非主権化/非中央集権化はAI業界の重要なテーマになる可能性があります。すなわち、非主権化/非中央集権化の基本構造に基づいて、安定した、透明で、中立的なAIサービスを提供することです。
非主権化/非中央集権化は「代替案」であり、「抑止力」ともなり、中央集権的/主権的なAI企業の非倫理的コストを大幅に引き上げ、AIモデルを軍事、カルト、政治などに使用することを阻止します。
極端な状況では、中央集権的/主権的なAIサービスが何らかの理由で利用できなくなったり信頼できなくなった場合、非主権化/非中央集権化されたAIは高可用性のサービスを持続的に提供し、特定の国/地域や人類がAIサービスを失い、麻痺状態に陥るのを防ぎます。
- 計算力の実用化
ETHがPoWからPoSに移行した背景には、「マイニングが価値を生まない」という批判があり、Web3とAIを結びつけることで、計算力の実用化のシナリオを提供し、既存の計算力を消化し、総計算力の成長を促進する効果を実現します。
- 仮想資産化
AIは計算力とストレージに基づく資産であり、Web3とAIの結合はAIを仮想資産に変換する通路を提供し、AI業界の価値を具現化する一方で、Web3に真のネイティブ仮想資産を創造します。
- Web3アプリケーションの変数
Web3とAIの結合はWeb3アプリケーションに新しい機能点と成長機会をもたらす可能性があり、既存のWeb3アプリケーションはすべて再構築される可能性があります。
最後に:9月、今のAIは起業する価値があるか
結論から言うと:価値がある、そしてこの結論はおそらく年末まで使えるでしょう。
人は状況に対する認識に偏りがちで、著者も例外ではありません。楽観的すぎる人もいれば、悲観的すぎる人もいます。著者は以前、2つのチームと交流しましたが、一方のチームは来年のQ1にはAIエージェントを作れると考え、もう一方のチームはAIは知識管理の仕事にしか適していないと考えていました。明らかに前者は楽観的すぎ、後者は悲観的すぎました。
長期的な計画を立てる際、過度に楽観的または悲観的になると落とし穴にはまりますが、広く伝播する言説は往々にしてこれらの偏りの大きい言説であり、独立した思考が非常に貴重です。したがって、読者がこの記事の見解を受け入れるかどうかに関わらず、読者が読書の過程で独立した思考と判断を生み出したのであれば、著者は非常に嬉しく思います。