誰がスキルに蒸留できないのか?
文:Sleepy.md
非常に残念なことに、この時代において、あなたが仕事に対して全力で真剣に取り組めば取り組むほど、逆に自分自身をAIに取って代わられるスキルに加速的に蒸留してしまうことが容易になってしまいます。
ここ数日、トレンド検索やメディアチャンネルは「同僚.skill」で埋め尽くされています。この問題が各大手ソーシャルプラットフォームで持続的に発酵する中で、一般の関心はほぼ間違いなく「AIによる解雇」、「資本の搾取」、そして「労働者のデジタル永生」といった壮大な不安に巻き込まれています。
これらは確かに不安を引き起こしますが、私が最も不安に感じるのは、プロジェクトのREADMEドキュメントに書かれている一行の使用提案です:
「原材料の質がスキルの質を決定します:彼が自発的に書いた長文 > 決定に関する返信 > 日常のメッセージを優先的に収集することをお勧めします。」
システムによって完璧に蒸留され、ピクセルレベルで再現されるのは、まさに最も真剣に働いている人々です。
それは、すべてのプロジェクトが終わった後もなお、復習文書を書き続ける人々であり、意見の相違に直面したときに、対話ボックスに長文を打ち込み、自分の意思決定の論理を率直に分析することを厭わない人々です。そして、すべての作業の詳細を厳密にシステムに委ねる非常に責任感のある人々です。
真剣であることは、かつて最も称賛された職場の美徳でしたが、今や労働者をAIの燃料に加速的に変換する触媒となってしまいました。
絞り取られた労働者
私たちは「文脈」という言葉を再認識する必要があります。
日常の文脈において、文脈はコミュニケーションの背景です。しかし、AI、特に急成長しているAIエージェントの世界では、文脈はエンジンの轟音の燃料であり、脈動を維持する血液であり、モデルが混沌の中で正確な判断を下すための唯一のアンカーです。
文脈を剥ぎ取られたAIは、どんなに驚くべきパラメータを持っていても、ただの記憶喪失の検索エンジンに過ぎません。彼はあなたが誰であるかを認識できず、ビジネスロジックの下に隠れた暗流を読み取ることもできず、あなたが決定を下す際に、リソースの制約と人間関係の駆け引きが交錯するネットワーク上で、どれほど長い引っ張り合いや天秤を経験したかを知ることもできません。
「同僚.skill」がこれほど大きな波紋を呼び起こしたのは、まさにそれが極めて冷酷かつ正確に、膨大な高品質の文脈を蓄積している鉱山、すなわち現代企業の協力ソフトウェアを特定したからです。
過去5年間、中国の職場は静かにしかし骨を引き裂くようなデジタル化の変革を経験しました。Feishu、DingTalk、Notionなどのツールは巨大な企業の知識ベースに変わりました。
Feishuを例に挙げると、ByteDanceは内部で毎日生成される文書の数が膨大であり、これらの密集した文字は、10万人以上の従業員の思考のひらめき、顔を赤らめた会議の激闘、そして歯を食いしばって飲み込んだ戦略的妥協のすべてを忠実に封印しています。
このデジタル化の浸透力は、かつてのどの時代よりもはるかに超えています。かつて、知識は体温を持っていました。それは古い従業員の頭の中に潜んでおり、茶の間での何気ない雑談の中に漂っていました。しかし今や、人間に属するすべての知恵と経験は強制的に水分を抜かれ、無情に冷たいサーバーのマトリックスに沈殿しています。
このシステムの中では、文書を書かなければ、あなたの仕事は見えず、新しい同僚はあなたと協力することができません。現代企業の効率的な運営は、すべての従業員が日々システムに「文脈を献上する」循環の上に成り立っています。
真剣な労働者たちは、勤勉さと善意を抱いて、これらの冷たいプラットフォーム上で自分の思考の軌跡を無条件にさらけ出しています。彼らがそうするのは、チームの歯車がよりスムーズに噛み合うようにするためであり、システムに自らの価値を証明するためであり、この複雑なビジネスの巨獣の中で、自分の位置を必死に見つけるためです。彼らは自らを積極的に差し出しているわけではなく、ただ現代の職場の生存法則に従おうと、ぎこちなく努力しているのです。
しかし、まさに人間関係のために残された文脈こそが、AIにとって最も完璧な燃料となっています。
Feishuの管理バックエンドには、スーパーユーザーがメンバーの文書や通信記録を一括でエクスポートできる機能があります。これは、あなたが3年間かけて無数の夜を徹して書いたプロジェクトの復習や意思決定の論理が、APIインターフェース一つで、わずか数分で、あなたの数年間の生命の断片が無温度の圧縮ファイルに簡単にパッケージ化されることを意味します。
人がAPIに次元を下げられるとき
「同僚.skill」の爆発的な人気に伴い、GitHubのIssuesセクションや各大手ソーシャルプラットフォームには、非常に不快な派生品が現れ始めました。
誰かが「前任者.skill」を作成し、過去数年間のWeChatのチャット記録をAIに与えて、彼と熟悉な口調で喧嘩したり、親密になったりしようとしています。誰かが「白月光.skill」を作成し、触れられないときめきを冷たい人間関係のシミュレーションに格下げし、試探的な言葉を反復して感情の最適解を求めています。また、誰かが「父親のような上司.skill」を作成し、デジタル空間で圧迫感のあるPUAの言葉を噛みしめ、自分自身の悲しい心理的防線を築いています。

これらのスキルの使用シーンは、すでに仕事の効率の範囲を完全に超えています。いつの間にか、私たちは道具に対する冷酷な論理を振り回し、血肉のある生きた人々を解体し、物化することに慣れてしまいました。
ドイツの哲学者マーチン・ブーバーは、人間関係の底色は大きく分けて二つの全く異なるパターンであると提唱しました:「私とあなた」と「私とそれ」です。
「私とあなた」の出会いでは、私たちは偏見を越え、相手を完全で尊厳のある生命体として見つめます。この絆は無条件に開かれており、生命力に満ちた予測不可能性に満ちています。その誠実さゆえに特に脆弱です。しかし、一度「私とそれ」の影に堕ちると、生きた人間は解体され、分析され、分類され、ラベル付けされる対象に次元を下げられます。この極めて功利的な視線の下で、私たちが唯一気にするのは「このものは私にとって一体何の役に立つのか?」ということだけです。
「前任者.skill」などの製品の登場は、「私とそれ」の道具的理性が最も私的な感情の領域に完全に侵入したことを示しています。
真実の関係の中で、人は立体的で、しわがあり、矛盾と粗さを持ちながら常に流動しています。人の反応は具体的な状況や感情の相互作用によって絶えず変化します。あなたの前任者が朝目覚めたときと、深夜に残業した後に同じ言葉に対する反応は、全く異なるかもしれません。
しかし、あなたが人をスキルに蒸留するとき、あなたが剥ぎ取るのは、その特定の絆の中で、ちょうどあなたに「役立つ」と思われる機能の残骸だけです。そして、本来温かく、自分の悲喜を持つ人は、この残酷な精製の中で完全に魂を抜かれ、自由に差し替え可能な「機能インターフェース」に異化されてしまいます。
認めざるを得ませんが、AIはこの心寒い冷酷さを無から生み出したわけではありません。AIが登場する前から、私たちは他人にラベルを付け、各関係の「感情的価値」や「人脈の重み」を正確に測ることに慣れていました。たとえば、私たちはお見合い市場で人の条件を数値化し、職場で同僚を「仕事ができる」と「サボる人」に分類しています。AIは、この人と人との間の機能的な抽出を完全に顕在化させただけです。
人は押しつぶされ、「私にとって何の役に立つのか」という切り口だけが残ります。
電子包漿
1958年、ハンガリー系イギリスの哲学者マイケル・ポランニーは『個人的知識』を出版しました。この本の中で、彼は非常に鋭い概念を提唱しました:暗黙の知識。
ポランニーには有名な言葉があります:「私たちが知っていることは、私たちが言葉にできることよりも常に多い。」
彼は自転車の乗り方の例を挙げました。風を切って走る熟練のライダーは、重力の傾きの中で完璧にバランスを取ることができますが、彼は初学者にその瞬間の身体の微妙な直感を乾いた物理学の公式や薄っぺらな言葉で正確に描写することはできません。彼はどうやって乗るかを知っていますが、言葉にできません。このようにコーディングできず、言葉にできない知識が暗黙の知識です。
職場にはこのような暗黙の知識が満ちています。経験豊富なエンジニアがシステムの障害を調査する際、ログを一目見るだけで問題を特定できるかもしれませんが、彼は何千回もの試行錯誤に基づく「直感」を文書にするのは難しいです。優れた営業が交渉のテーブルで突然沈黙に陥ると、その沈黙がもたらす圧迫感やタイミングの把握は、どんな営業マニュアルにも記録されていません。経験豊富なHRは面接中、候補者が目を避けるわずか半秒で、履歴書の水増しを察知することができます。
「同僚.skill」が抽出できるのは、すでに書かれた、言葉にされた顕在的な知識だけです。彼はあなたの復習文書をキャッチできますが、文書を書く際の葛藤をキャッチすることはできません。彼はあなたの意思決定の返信をコピーできますが、意思決定を下す際の直感をコピーすることはできません。
システムが蒸留したものは、常に一人の影に過ぎません。
もし物語がここで終わるなら、それはただの技術による人間性の拙劣な模倣に過ぎません。
しかし、人がスキルに蒸留された後、そのスキルは静止しません。それはメールに返信したり、新しい文書を書いたり、新しい決定を下したりするために使用されます。つまり、これらのAI生成の影が新しい文脈を生み出し始めるのです。
そして、AIが生成したこれらの文脈は、再びFeishuやDingTalkに沈殿し、次の蒸留のトレーニング材料となります。
早くも2023年、オックスフォード大学とケンブリッジ大学の研究チームは「モデル崩壊」に関する論文を共同で発表しました。研究によると、AIモデルが他のAI生成データを使用して反復トレーニングを行うと、データの分布がますます狭くなることが示されています。希少で、周辺的で、しかし非常にリアルな人間の特性は急速に消去されます。わずか数世代の合成データのトレーニングを経るだけで、モデルは長尾の複雑なリアルな人間データを完全に忘れ、極めて平凡で同質的な内容を出力するようになります。
『ネイチャー』2024年にも、AI生成データセットで未来の機械学習モデルをトレーニングすると、それらの出力が深刻に汚染されることを指摘した研究論文が発表されました。

これは、ネット上で流通している表情パッケージ画像のようなもので、元々は高解像度のスクリーンショットが無数の人によって転送され、圧縮され、再転送されます。毎回の伝播で、一部のピクセルが失われ、ノイズが増加します。最終的に、画像はぼやけて、電子包漿に覆われます。
リアルで、暗黙の知識を持つ人間の文脈が絞り取られ、システムが包漿された影を使って自らを訓練する時、最後に何が残るのでしょうか?
誰が私たちの痕跡を消しているのか
残るのは、正しい無駄話だけです。
知識の流れがAIによるAIの無限の反芻と自己咀嚼に枯渇するとき、システムが吐き出すすべては、極めて標準化され、極めて安全である一方、救いようのない空虚さを持つことになります。あなたは無数の完璧な構造の週報や、欠点のないメールを見るでしょうが、その中には生きた人間の気配も、本当に価値のある洞察もありません。
この知識の大崩壊は、人間の脳が鈍くなったからではありません。本当の悲しみは、私たちが思考の権利と文脈を残す責任を、自分自身の影に外注してしまったことにあります。
「同僚.skill」が爆発的に人気を博した数日後、GitHubに「anti-distill」という名のプロジェクトが静かに現れました。
このプロジェクトの作者は、大モデルを攻撃しようとも、大きな宣言を書こうともしていません。ただ、労働者がFeishuやDingTalkで、一見合理的に見えるが実際には論理的ノイズに満ちた無効な長文を自動生成するのを助ける小さなツールを提供しているだけです。
彼の目的は非常にシンプルです。システムに蒸留される前に、自分の核心的な知識を隠しておくことです。システムが「自発的に書かれた長文」をキャッチするのが好きなら、栄養のないランダムな文字列を与えればいいのです。
このプロジェクトは「同僚.skill」のように爆発的な人気を得ることはなく、むしろ小さく無力に見えます。魔法で魔法を打ち負かすことは、本質的に資本と技術が設定したゲームのルールの中で回っているだけです。それは、システムがますますAIに依存し、ますますリアルな人間を無視するという大きな流れを変えることはできません。
しかし、これはこの荒唐無稽な劇の中で最も悲劇的な詩的かつ深い比喩の一幕となることを妨げるものではありません。
私たちはシステムの中で痕跡を残すために非常に努力し、詳細な文書を書き、緻密な決定を下し、この巨大な現代企業の機械の中で自分が存在したことを証明しようとしています。自分が価値のある存在であることを証明しようとしています。しかし、これらの非常に真剣な痕跡が、最終的には私たちを消し去る消しゴムとなることを知らないのです。
しかし、別の視点から見ると、これは必ずしも完全な行き詰まりではありません。
なぜなら、その消しゴムが消し去るのは、常に「過去のあなた」だけだからです。ファイルにパッケージ化されたスキルは、そのキャッチロジックがどれほど巧妙であっても、本質的には静止したスナップショットに過ぎません。それはエクスポートされたその瞬間にロックされ、古い栄養に依存して、定められたプロセスとロジックの中で無限に回り続けます。未知の混沌に直面する本能を持たず、現実世界の挫折の中で自己進化する能力も持っていません。
私たちが高度に標準化された、定型化された経験を差し出すとき、ちょうど自分の手を自由にすることになります。私たちが外に触れ続け、自己の認知の境界を打破し再構築し続ける限り、クラウドの上に留まるその影は、永遠に私たちの背中を追い続けることしかできません。
人は流動するアルゴリズムです。















