DeepSeekがApp Storeで首位を獲得、中国のAIがアメリカのテクノロジー界に地震を引き起こした一週間
著者:APPSO
過去一週間、中国からのDeepSeek R1モデルが海外のAI界を揺るがしました。
一方では、低コストでOpenAI o1に匹敵する性能を実現し、中国のエンジニアリング能力とスケールイノベーションの優位性を示しています。もう一方では、オープンソースの精神を貫き、技術の詳細を熱心に共有しています。
最近、カリフォルニア大学バークレー校の博士課程に在籍するJiayi Panの研究チームが、わずか30ドル未満の非常に低コストでDeepSeek R1-Zeroの重要技術「アハ・モーメント」を再現することに成功しました。

そのため、MetaのCEOマーク・ザッカーバーグ、チューリング賞受賞者ヤン・ルカン、DeepMindのCEOデミス・ハサビスなどがDeepSeekを高く評価するのも不思議ではありません。
DeepSeek R1の人気が高まる中、今日の午後、DeepSeekアプリはユーザーのアクセス急増により一時的にサーバーが混雑し、「クラッシュ」する事態が発生しました。
OpenAIのCEOサム・アルトマンも、国際メディアのヘッドラインを取り戻すためにo3-miniの使用枠を漏らそうとしました。------ChatGPT Plus会員は毎日100回のクエリが可能です。
しかし、あまり知られていないのは、名声を得る前に、DeepSeekの親会社である幻方量化が実は国内の量化プライベートエクイティ分野のトップ企業の一つであるということです。
DeepSeekモデルがシリコンバレーを震撼させ、その価値はさらに上昇中
2024年12月26日、DeepSeekは正式にDeepSeek-V3大モデルを発表しました。
このモデルは、複数のベンチマークテストで優れたパフォーマンスを示し、業界の主流のトップモデルを超え、特に知識問答、長文処理、コード生成、数学能力などの分野で際立っています。例えば、MMLUやGPQAなどの知識関連タスクにおいて、DeepSeek-V3のパフォーマンスは国際的なトップモデルClaude-3.5-Sonnetに近いものです。

数学能力においては、AIME 2024やCNMO 2024などのテストで新しい記録を樹立し、既知のオープンソースおよびクローズドソースモデルをすべて超えました。同時に、生成速度は前世代に比べ200%向上し、60 TPSに達し、ユーザー体験を大幅に改善しました。
独立した評価サイトArtificial Analysisの分析によると、DeepSeek-V3は複数の重要指標で他のオープンソースモデルを超え、性能面では世界トップのクローズドソースモデルGPT-4oやClaude-3.5-Sonnetと肩を並べています。
DeepSeek-V3の核心技術の優位性には以下が含まれます:
混合専門家(MoE)アーキテクチャ:DeepSeek-V3は6710億パラメータを持っていますが、実際の運用では各入力が370億パラメータのみを活性化します。この選択的活性化方式は計算コストを大幅に削減し、高性能を維持します。
多頭潜在注意力(MLA):このアーキテクチャはDeepSeek-V2で既に検証されており、高効率なトレーニングと推論を実現します。
補助損失のない負荷バランス戦略:この戦略は、負荷バランスがモデル性能に与える負の影響を最小化することを目的としています。
多トークン予測トレーニング目標:この戦略はモデルの全体的な性能を向上させます。
効率的なトレーニングフレームワーク:HAI-LLMフレームワークを採用し、16-way Pipeline Parallelism(PP)、64-way Expert Parallelism(EP)、ZeRO-1 Data Parallelism(DP)をサポートし、さまざまな最適化手段を通じてトレーニングコストを削減しました。
さらに重要なのは、DeepSeek-V3のトレーニングコストがわずか558万ドルであり、7800万ドルに達するGPT-4のようなモデルに比べてはるかに低いことです。また、そのAPIサービスの価格も過去の親しみやすい戦略を継承しています。

入力トークンは百万あたり0.5元(キャッシュヒット)または2元(キャッシュミス)、出力トークンは百万あたり8元です。
『フィナンシャル・タイムズ』はこれを「国際テクノロジー界を驚かせたダークホース」と表現し、その性能は資金力のあるOpenAIなどのアメリカの競合モデルに匹敵すると考えています。Maginativeの創設者クリス・マッケイはさらに、DeepSeek-V3の成功はAIモデル開発の既存の方法を再定義する可能性があると指摘しました。
言い換えれば、DeepSeek-V3の成功はアメリカの計算能力の輸出制限への直接的な応答と見なされ、この外部の圧力が逆に中国のイノベーションを刺激しました。
DeepSeek創設者梁文鋒、控えめな浙江大学の天才
DeepSeekの台頭はシリコンバレーを不安にさせ、この世界的なAI業界モデルを揺るがす背後の創設者梁文鋒は、中国の伝統的な意味での天才の成長軌跡を完璧に体現しています------若き成功者、時を経て新たな輝きを放つ。
優れたAI企業のリーダーは、技術とビジネスの両方を理解し、先見の明を持ちながらも実務的で、革新の勇気を持ちつつもエンジニアリングの規律を守る必要があります。このような複合型人材は本来稀少な資源です。
17歳で浙江大学の情報電子工学専攻に入学し、30歳で幻方量化(Hquant)を設立し、全自動量化取引の探求を始めました。梁文鋒の物語は、天才が常に正しい時に正しいことをすることを証明しています。

2010年:上海と深センの300株指数先物が導入され、量化投資が発展の機会を迎え、幻方チームはその流れに乗り、自営資金が急速に増加しました。
2015年:梁文鋒は同窓生と共に幻方量化を設立し、翌年には最初のAIモデルを発表し、深層学習によって生成された取引ポジションをオンラインにしました。
2017年:幻方量化は投資戦略の全面的なAI化を宣言しました。
2018年:AIを会社の主要な発展方向として確立しました。
2019年:資金管理規模が100億元を突破し、国内の量化プライベートエクイティ「四巨頭」の一つとなりました。
2021年:幻方量化は国内で初めて千億規模を突破した量化プライベートエクイティ大手となりました。
成功したときだけこの会社が過去数年冷や飯を食っていた日々を思い出すことはできません。しかし、量化取引会社がAIに転身するのは一見意外に見えますが、実際には理にかなっています------なぜなら、どちらもデータ駆動型の技術集約型産業だからです。
黄仁勲はゲーム用のグラフィックカードを売りたいだけで、私たちのようなゲームをする人々から小銭を稼ごうとしていましたが、気づけば世界最大のAI兵器庫になってしまいました。幻方がAI分野に進出したのも同様です。この進化は現在の多くの業界がAI大モデルを無理に導入するよりも生命力があります。
幻方量化は量化投資の過程で大量のデータ処理とアルゴリズム最適化の経験を蓄積し、大量のA100チップを保有しており、AIモデルのトレーニングに強力なハードウェアサポートを提供しています。2017年から、幻方量化はAI計算能力の大規模な配置を開始し、「萤火一号」「萤火二号」などの高性能計算クラスターを構築し、AIモデルのトレーニングに強力な計算能力を提供しています。

2023年、幻方量化は正式にDeepSeekを設立し、AI大モデルの研究開発に専念しました。DeepSeekは幻方量化の技術、人材、リソースの蓄積を引き継ぎ、AI分野で急速に頭角を現しました。
『暗涌』との深層インタビューにおいて、DeepSeekの創設者梁文鋒も独自の戦略的視野を示しました。
大多数の中国企業がLlamaアーキテクチャをコピーするのを選ぶ中、DeepSeekはモデル構造から直接取り組み、AGIの壮大な目標を狙っています。
梁文鋒は、中国のAIが国際的なトップレベルと著しいギャップがあることを率直に認め、モデル構造、トレーニングダイナミクス、データ効率における総合的なギャップが、同等の効果を得るために4倍の計算能力を投入する必要があることを示しています。

▲画像はCCTVニュースのスクリーンショットから
このような挑戦に直面する姿勢は、梁文鋒が幻方での多年の経験から来ています。
彼は、オープンソースは単なる技術の共有ではなく、文化的表現でもあり、真の城壁はチームの持続的な革新能力にあると強調しています。DeepSeekの独特な組織文化は、ボトムアップの革新を奨励し、階層を薄め、才能の情熱と創造性を重視します。
チームは主にトップ大学の若者で構成されており、自然な分業モデルを採用し、従業員が自主的に探求し協力できるようにしています。採用時には、従業員の熱意と好奇心を重視し、従来の意味での経験や背景よりも重視しています。
業界の展望について、梁文鋒はAIが技術革新の爆発期にあり、応用の爆発期ではないと考えています。彼は、中国がより多くのオリジナル技術革新を必要としており、永遠に模倣の段階に留まるべきではなく、誰かが技術の最前線に立つ必要があると強調しています。
OpenAIなどの企業が現在リードしているが、革新の機会は依然として存在します。

シリコンバレーを翻弄し、DeepSeekが海外のAI界を不安にさせる
業界のDeepSeekに対する評価はさまざまですが、私たちは業界関係者の評価をいくつか集めました。
NVIDIA GEAR Labプロジェクト責任者のJim FanはDeepSeek-R1を高く評価しました。
彼は、これは非アメリカ企業がOpenAIの最初のオープンな使命を実践していることを示しており、原始的なアルゴリズムや学習曲線を公開することで影響力を実現していると指摘しました。
DeepSeek-R1は一連のモデルをオープンソースにし、すべてのトレーニングの秘密を公開しました。彼らはRLフィードバックループの重要かつ持続的な成長を示した最初のオープンソースプロジェクトかもしれません。
影響力は『ASI内部実現』や『ストロベリープロジェクト』などの伝説的なプロジェクトを通じて実現できるだけでなく、単に原始的なアルゴリズムやmatplotlibの学習曲線を公開することで達成できます。
ウォール街のトップベンチャーキャピタルA16Zの創設者Marc Andreesenは、DeepSeek R1は彼が見た中で最も驚くべき、印象的な突破口の一つであり、オープンソースとしては世界への意義深い贈り物だと考えています。

テンセントの元上級研究員で北京大学の人工知能分野の博士後研究員であるル・ジンは、技術の蓄積の観点から分析しました。彼はDeepSeekが突然火がついたわけではなく、前の世代のモデルバージョンにおける多くの革新を引き継いでおり、関連するモデルアーキテクチャやアルゴリズムの革新が反復検証されているため、業界を揺るがすのは必然であると指摘しました。
チューリング賞受賞者でMetaのチーフAI科学者ヤン・ルカンは新たな視点を提起しました:
「DeepSeekのパフォーマンスを見て『中国がAIでアメリカを超えている』と感じる人々、あなたたちの解釈は間違っています。正しい解釈は『オープンソースモデルが専有モデルを超えている』ということです。」

DeepMindのCEOデミス・ハサビスの評価は一抹の不安を示しています:
「DeepSeekが達成した成果は印象的であり、我々は西洋の最前線モデルのリーダーシップを維持する方法を考慮する必要があると思います。西洋は依然としてリードしていますが、中国は非常に強力なエンジニアリングとスケール能力を持っています。」
マイクロソフトのCEOサティア・ナデラはスイスのダボス世界経済フォーラムで、DeepSeekが実際に効果的にオープンソースモデルを開発したと述べ、推論計算において優れた性能を示し、スーパーコンピューティング効率が非常に高いと強調しました。
彼は、マイクロソフトは中国のこれらの画期的な進展に最高の重視をもって対応しなければならないと強調しました。
MetaのCEOマーク・ザッカーバーグの評価はさらに深いもので、DeepSeekが示した技術力と性能は印象的であり、中米間のAIのギャップは微々たるものであり、中国の全力の突進がこの競争をますます激化させていると指摘しました。
競合他社からの反応は、DeepSeekに対する最良の認識かもしれません。Metaの従業員が匿名の職場コミュニティTeamBlindで暴露したところによれば、DeepSeek-V3とR1の登場はMetaの生成AIチームを恐慌に陥れました。
Metaのエンジニアたちは、DeepSeekの技術を分析するために時間を争っており、可能な限りの技術を模倣しようとしています。
その理由は、DeepSeek-V3のトレーニングコストがわずか558万ドルであり、この数字はMetaの一部の幹部の年俸にも及ばないからです。このような著しい投入対効果の差は、Metaの管理層がその巨額のAI研究開発予算を説明する際に大きなプレッシャーを感じさせています。

国際的な主流メディアもDeepSeekの台頭に高い関心を寄せています。
『フィナンシャル・タイムズ』は、DeepSeekの成功が「AI研究開発は巨額の投資に依存しなければならない」という従来の認識を覆し、正確な技術路線でも卓越した研究成果を実現できることを証明したと指摘しています。さらに重要なのは、DeepSeekチームの技術革新に対する無私の共有が、この研究価値を重視する企業を非常に強力な競争相手にしたということです。
『エコノミスト』は、中国のAI技術がコストパフォーマンスの面で急速に突破を遂げており、アメリカの技術的優位性を揺るがし始めていると述べ、これはアメリカの今後10年の生産性向上と経済成長の潜在能力に影響を与える可能性があるとしています。

『ニューヨーク・タイムズ』は別の視点から切り込み、DeepSeek-V3は性能面でアメリカ企業の高級チャットボットに匹敵するが、コストは大幅に低下していると述べています。
これは、チップの輸出規制の状況下でも、中国企業が革新と資源の効率的な利用を通じて競争できることを示しています。また、アメリカ政府のチップ制限政策は逆効果をもたらし、中国のオープンソースAI技術分野での革新突破を促進している可能性があります。
DeepSeek「誤報家門」、自称GPT-4
称賛の声が上がる中、DeepSeekは一部の論争にも直面しています。
多くの外部の人々は、DeepSeekがトレーニングプロセスでChatGPTなどのモデルの出力データをトレーニング材料として使用した可能性があると考えています。モデル蒸留技術を通じて、これらのデータの「知識」がDeepSeek自身のモデルに移行されたのです。
このような行為はAI分野では珍しくありませんが、疑問を持つ者たちはDeepSeekがOpenAIモデルの出力データを十分に開示せずに使用したかどうかに注目しています。これはDeepSeek-V3の自己認識にも反映されているようです。
以前、ユーザーがモデルのアイデンティティを尋ねたところ、モデルは自らをGPT-4と誤認識することがあることが発見されました。

高品質なデータはAIの発展において重要な要素であり、OpenAIでさえデータ取得に関する論争を免れることはできません。彼らはインターネットから大規模にデータをクロールする方法で多くの著作権訴訟を抱えており、現在もOpenAIとニューヨーク・タイムズの一審判決は未だに決着がついていません。
そのため、DeepSeekもサム・アルトマンとジョン・シュルマンから公然と暗示されました。
「知っていることをコピーするのは(相対的に)簡単です。何がうまくいくかわからないときに、新しいことやリスクのある難しいことをするのは非常に難しいのです。」

しかし、DeepSeekチームはR1の技術報告書でOpenAIモデルの出力データを使用していないことを明確にし、強化学習と独自のトレーニング戦略を通じて高性能を実現したと述べています。
例えば、基礎モデルのトレーニング、強化学習(RL)トレーニング、微調整などを含む多段階トレーニング方式を採用しており、この多段階の循環トレーニング方式はモデルが異なる段階で異なる知識と能力を吸収するのに役立ちます。
節約も技術、DeepSeek背後の技術の可取之道
DeepSeek-R1の技術報告書には、R1 zeroトレーニングプロセスで現れた「アハ・モーメント」に関する注目すべき発見が記載されています。モデルの中期トレーニング段階で、DeepSeek-R1-Zeroは初期の解決策を再評価し、戦略を最適化するためにより多くの時間を割くようになりました(異なる解法を何度も試みるなど)。
言い換えれば、RLフレームワークを通じて、AIは自発的に人間のような推論能力を形成し、事前に設定されたルールの制限を超えることさえ可能です。そして、これは医療診断やアルゴリズム設計などの複雑な意思決定において、戦略を動的に調整するためのより自律的で適応的なAIモデルの開発に向けた方向性を提供することが期待されます。

同時に、多くの業界関係者がDeepSeekの技術報告書を深く解析しようとしています。OpenAIの元共同創設者アンドレイ・カーパシーは、DeepSeek V3の発表後に次のように述べました:
DeepSeek(この中国のAI企業)は、今日、非常にリラックスさせてくれます。彼らは最前線の言語モデル(LLM)を公開し、非常に低予算でトレーニングを完了しました(2048のGPU、2ヶ月間、600万ドルの費用)。
参考までに、この能力は通常16KのGPUクラスターを必要とし、現在これらの先進的なシステムのほとんどは約100KのGPUを使用しています。例えば、Llama 3(405Bパラメータ)は3080万GPU時間を使用しましたが、DeepSeek-V3はより強力なモデルであり、わずか280万GPU時間(Llama 3の約1/11の計算量)を使用したようです。
もしこのモデルが実際のテストでも優れたパフォーマンスを示すなら(例えば、LLMアリーナのランキングが進行中で、私の迅速なテストは良好な結果を示しています)、これはリソースが制限された状況で研究とエンジニアリング能力を示す非常に印象的な成果となるでしょう。
では、これが意味するのは、最前線のLLMをトレーニングするために大型GPUクラスターがもはや必要ないということですか?そうではありませんが、これは、使用するリソースを無駄にしないようにしなければならないことを示しています。このケースは、データとアルゴリズムの最適化が依然として大きな進展をもたらすことができることを示しています。さらに、この技術報告書も非常に素晴らしく詳細で、一読の価値があります。

DeepSeek V3がChatGPTデータを使用したという疑惑に直面した際、カーパシーは次のように述べました:大規模言語モデルは本質的に人間のような自己意識を持っていないため、モデルが自分のアイデンティティを正しく回答できるかどうかは、開発チームが自己認識トレーニングセットを特別に構築したかどうかに完全に依存します。特にトレーニングが行われていない場合、モデルはトレーニングデータの中で最も近い情報に基づいて回答します。
さらに、モデルが自分をChatGPTと認識することは問題ではなく、ChatGPT関連データがインターネット上で普遍的であることを考慮すると、このような回答は実際には自然な「近接知識の出現」現象を反映しています。
Jim FanはDeepSeek-R1の技術報告書を読んだ後、次のように指摘しました:
この論文の最も重要なポイントは、完全に強化学習に駆動され、完全に監視学習(SFT)の参加がないということです。この方法はAlphaZeroに似ており、冷スタートからゼロから囲碁、将棋、チェスを習得することができ、人間の棋士の手法を模倣する必要がありません。
-- ハードコーディングされたルールに基づく真の報酬を使用し、強化学習によって「破られやすい」学習型報酬モデルを使用しない。
-- モデルの思考時間はトレーニングプロセスの進行に伴い着実に増加し、これは事前にプログラムされたものではなく、自発的な特性です。
-- 自己反省と探索行動の現象が現れました。
-- PPOの代わりにGRPOを使用:GRPOはPPOの評論家ネットワークを排除し、複数のサンプルの平均報酬を使用します。これはメモリ使用量を減らすためのシンプルな方法です。注目すべきは、GRPOはDeepSeekチームによって2024年2月に発明されたもので、非常に強力なチームです。
同じ日にKimiも類似の研究成果を発表した際、Jim Fanは両社の研究が殊途同帰であることを発見しました:
両者ともMCTSなどの複雑な木検索方法を放棄し、よりシンプルな線形思考軌跡に移行し、従来の自己回帰予測方式を採用しました。
両者とも追加のモデルコピーを必要とする価値関数を使用せず、計算リソースの要求を減らし、トレーニング効率を向上させました。
両者とも密な報酬モデリングを避け、可能な限り真の結果を指導として利用し、トレーニングの安定性を確保しました。

しかし、両者には顕著な違いもあります:
DeepSeekはAlphaZero式の純粋なRL冷スタート方法を採用し、Kimi k1.5はAlphaGo-Master式のウォームアップ戦略を選択し、軽量のSFTを使用しています。
DeepSeekはMITライセンスでオープンソース化し、Kimiは多モーダルベンチマークテストで優れたパフォーマンスを示し、論文のシステム設計の詳細がより豊富で、RLインフラストラクチャ、混合クラスター、コードサンドボックス、並列戦略を含んでいます。
しかし、この急速に進化するAI市場では、リーディングアドバンテージはしばしば一瞬のものです。他のモデル企業は必ずDeepSeekの経験を迅速に吸収し、改善を加え、すぐに追いつくことができるでしょう。
大モデル価格戦争の発起者
多くの人がDeepSeekに「AI界のピンドゥオドゥオ」という称号があることを知っていますが、その背後にある意味は昨年始まった大モデル価格戦争に由来しています。
2024年5月6日、DeepSeekはDeepSeek-V2オープンソースMoEモデルを発表し、MLA(多頭潜在注意力メカニズム)やMoE(混合専門家モデル)などの革新的なアーキテクチャを通じて、性能とコストの両方での突破を実現しました。
推論コストは百万トークンあたりわずか1元に引き下げられ、当時のLlama3 70Bの七分の一、GPT-4 Turboの七十分の一に相当します。この技術的突破により、DeepSeekは資金を投入せずに非常にコストパフォーマンスの高いサービスを提供できるようになり、他の企業に大きな競争圧力をもたらしました。
DeepSeek-V2の発表は連鎖反応を引き起こし、ByteDance、百度、アリババ、テンセント、智谱AIが次々と追随し、大幅に大モデル製品の価格を引き下げました。この価格戦争の影響は太平洋を越え、シリコンバレーの高い関心を引き起こしました。
そのため、DeepSeekは「AI界のピンドゥオドゥオ」と呼ばれるようになりました。

外部からの疑問に対し、DeepSeekの創設者梁文鋒は『暗涌』のインタビューで次のように応じました:
「ユーザーを奪うことが私たちの主な目的ではありません。私たちが価格を下げたのは、次世代モデルの構造を探求する中で、コストが先に下がったからです。また、APIやAIは普遍的で、誰もが手に入れられるものであるべきだと考えています。」
実際、この価格戦争の意義は競争そのものを超え、より低い参入障壁が多くの企業や開発者に最前線のAIにアクセスし、利用する機会を提供しました。また、業界全体に価格戦略を再考させる圧力をかけました。この時期にDeepSeekは公の視界に入り、頭角を現しました。
千金で骨を買う、雷軍がAI天才少女を引き抜く
数週間前、DeepSeekは注目すべき人事異動がありました。
第一財経によると、雷軍は千万年俸でロ・フーリーを引き抜き、小米AI実験室の大モデルチームの責任者に任命しました。
ロ・フーリーは2022年に幻方量化の傘下にあるDeepSeekに加入し、DeepSeek-V2や最新のR1などの重要な報告書で彼女の姿を見ることができます。

その後、一時的にB端に集中していたDeepSeekもC端に進出し、モバイルアプリを発表しました。原稿執筆時点で、DeepSeekのモバイルアプリはApple App Storeの無料版アプリで最高2位にランクインし、強力な競争力を示しています。
一連の小さな高潮がDeepSeekの名声を高めましたが、同時にさらなる高潮が重なり、1月20日の夜、660Bパラメータを持つ超大規模モデルDeepSeek R1が正式に発表されました。
このモデルは数学タスクで優れたパフォーマンスを示し、AIME 2024で79.8%のpass@1スコアを獲得し、OpenAI-o1をわずかに超えました。MATH-500では97.3%のスコアを獲得し、OpenAI-o1と同等です。
プログラミングタスクでは、Codeforcesで2029 Elo評価を獲得し、96.3%の人間参加者を超えました。MMLU、MMLU-Pro、GPQA Diamondなどの知識ベンチマークテストでは、DeepSeek R1のスコアはそれぞれ90.8%、84.0%、71.5%で、OpenAI-o1にはわずかに劣りますが、他のクローズドモデルよりは優れています。
最新の大モデルアリーナLM Arenaの総合ランキングで、DeepSeek R1は第三位にランクインし、o1と並んでいます。
「Hard Prompts」(高難度プロンプト)、「Coding」(コーディング能力)、「Math」(数学能力)などの分野で、DeepSeek R1は第一位です。
「Style Control」(スタイル制御)において、DeepSeek R1はo1と並んで第一位です。
「Hard Prompt with Style Control」(高難度プロンプトとスタイル制御の組み合わせ)のテストでも、DeepSeek R1はo1と並んで第一位です。

オープンソース戦略において、R1はMITライセンスを採用し、ユーザーに最大限の使用自由を提供し、モデル蒸留をサポートし、推論能力をより小さなモデルに蒸留することができ、32Bや70Bモデルが多くの能力でo1-miniに匹敵する効果を実現し、オープンソースの強度は以前から批判されていたMetaをも超えています。
DeepSeek R1の登場により、国内ユーザーは初めてo1レベルのモデルを無料で使用できるようになり、長年存在していた情報の壁を打破しました。その結果、小紅書などのソーシャルプラットフォームでの議論の熱潮は、GPT-4の発表当初に匹敵するものとなりました。
海を越えて、内巻を避ける
DeepSeekの発展の軌跡を振り返ると、その成功の秘密は明確で、実力が基盤であるが、ブランド認知が城壁であることがわかります。
『晚点』との対話で、MiniMaxのCEO闫俊杰はAI業界に対する彼の考えと会社戦略の変化について深く共有しました。彼は二つの重要な転換点を強調しました:一つは技術ブランドの重要性を認識すること、もう一つはオープンソース戦略の価値を理解することです。
闫俊杰はAI分野では、技術の進化速度が現在の成果よりも重要であり、オープ













