以下の内容はhttps://kaz-ataka.hatenablog.com/entry/2026/02/10/132414より取得しました。


スマイルカーブの終焉と「コ」の字型社会の到来 ― AI時代に価値はどこへ消えるのか


Onomichi, Japan
LEICA M (Typ 240), 1.4/50 Summilux, RAW


先日、経産省の局長になった旧知の友人と話していたときのこと。AIの話になり、僕はこう言った。

「サイバー空間で閉じうる領域については、最終的に残るのは"ディレクション"と"ダメ出し"だけになりますよね。それ以外は、極端に自動化される」

しばらく間があって、「ああ、それだ」と彼は言った。

作るのはAI。回すのもAI。最適化するのもAI。人間の仕事は、方向を決める、出てきたものを評価する、もう一段引き上げる、最終的に責任を持つ。その往復になる。これは生産性向上の話ではない。社会にこれから一気に広がる構造の話だ。

-

従来、仕事の多くは「途中工程」にあった。調べる。整理する。比較する。叩き台をつくる。改善する。しかし生成AIとエージェントが統合されると、この途中工程がほぼ消える。残るのは、どこへ向かうかを決めるディレクションと、出てきたものに対する評価とダメ出し。つまり「判断の両端」だけだ。

例えば:

  • 広告:ターゲティング → クリエイティブ生成 → 入札最適化
  • EC:レコメンド → 在庫最適化 → 価格調整
  • 金融:与信スコアリング → ポートフォリオ再構成
  • 教育:教材生成 → 演習設計 → 進捗評価

従来はここに大量の人手と中間企業が存在した。しかし生成AI+エージェントが統合されると、この「中間層」が一気に薄くなる。言い換えれば、人間の役割は実行そのものではなく、何を最適化するのかという判断の枠組みを設計することに移っていく。

-

この構造については、実は2015年の夏、AIの注目度が急に上がった局面でハーバード・ビジネス・レビュー*1に寄稿した論考でも触れている。意思決定の重心は「通常判断」ではなく、例外的な事象や外れ値を扱う側に移ると書いた。あの頃はまだ抽象的に聞こえたかもしれないが、生成AIとエージェントが現実になりつつある今、この構造はかなりリアルなものになってきた。


安宅和人「人工知能はビジネスをどう変えるか」Diamond Harvard Business Review 2015年11月号より*2

そこでの整理はシンプルだ。定常的な処理はアルゴリズムが担い、人間は例外的な事象や想定外の変化の意味を読み取る役割に移る、と。AIは通常状態の最適化を極めて高速に回す。その結果、人間の仕事は「意思決定そのもの」ではなく、むしろ次の三つに集中していく。

  • 何を見るべきかを見極めること。
  • 想定外や例外の意味を読み取ること。
  • そして必要ならば、最適化の前提そのものを書き換えること。

言い換えれば、AI時代のマネジメントは意思決定の仕事ではなく、例外と前提を扱う仕事になる。これは単なる業務分担の変化ではない。判断の構造そのものが変わるということだ。

-

従来型のバリューチェーンはスマイルカーブ構造だった。研究開発とブランドが高付加価値、製造は低い。しかしAI時代は違う。構造はディレクションから、ほぼ自動化された生成・最適化を経て、ダメ出しと最終責任へと至る。横倒しの「コ」の字だ(欧文脈的には逆π型とも言える)。中間が極端に薄くなる。

-

ここで重要なのはマクロの錯覚だ。AIで広告効率は上がる。EC回転率は上がる。金融利回りは上がる。行政処理は高速化する。GDPは伸びる可能性が高い。経済が縮むわけではない。

しかし付加価値の帰属先はどこか?
価値分配はどうなるか?

もし推薦アルゴリズム、意思決定モデル、エージェント基盤、学習データ統合基盤がいくつかのプラットフォームに依存すれば、プラットフォームと計算基盤を持たない側に残るのは、実行労働、在庫リスク、フィジカル資産だけになる。プラットフォームが国外にある場合、これは「デジタル赤字」の次の段階といえる。

-

製造業の時代、価値はモノにあった。
IT時代、価値は情報に移った。
AI時代、価値は判断に移る。

どの顧客に何を出すか、どのリスクを許容するか、何を優先するか、どの未来を目指すか。AIはその途中工程を圧縮する。だが、最適化関数を誰が定義するのか。最終的に「良し」と言うのは誰か。そこに価値が残る。

-

さらに深刻なのはここだ。AIは単に効率化するのではない。判断基準を埋め込む。

例えば:

  • 与信モデルのリスク許容度
  • 採用アルゴリズムの最適化関数
  • 医療トリアージの優先順位
  • 政策シミュレーションの前提条件

これらは"価値観"である。モデルが外部基盤に依存すれば、判断のOSが外にあることになる。これは静かな主権移転といえる。

-

産業別に見れば、方向感的に何が起きるかはほぼ明らかだ。

  • 広告:広告代理店の中間機能がほぼ自動化され、価値は「ブランド設計」か「プラットフォーム保有」に二極化する。
  • コマース:AIエージェントが直接メーカーと接続する世界が来れば、"棚"という概念そのものが溶ける。
  • 金融:銀行の与信判断がモデルに置き換わり、残るのは資本供給の最終責任と制度設計になる。
  • 教育:教材提供者が不要になり、価値は「何を人間に残すか」という設計思想に移る。

電力、通信、金融、行政、、これら社会の基盤インフラが問われるのは、判断基盤を内製するのか、外部に委ねるのか、という選択だ。これはIT投資の話ではない。制度設計の話だ。

-

多くの人はAIの失敗を恐れる。暴走、信頼に足らないアウトプットの生成などだ。しかし本当に危険なのはAIが成功しすぎることだ。その結果起きるのは、顧客フロントでもバックエンドでもない中間(ミドル)層の雇用消失、判断の外部化、価値分配の極端化、国家の交渉力低下だ。

(参考)
kaz-ataka.hatenablog.com

-

いわゆる"human in the loop"という概念さえ、機能不全に陥りつつあるということだ。

AIの判断は速く、その背後にある情報量は人間が一度に咀嚼できる限界を遥かに超えている。その結果、人間はもはや loop の「中」で判断しているのではない。loop に接続された“責任端子”になりつつある。

AIが生成した提案を確認し、承認ボタンを押す。だがその判断過程を、実質的に検証できているわけではない。形式上は人間が最終確認者でありながら、実質的な最適化はアルゴリズム側で完結している。

これを僕は、責任のクリーニング構造(責任の所在の洗浄)と呼びたい。実質的な判断はAIが行う。組織は「人間が最終確認した」と言う。確認者は「AIがそう推奨した」と自分を納得させる。判断主体は霧散し、責任だけが漂う。

報道でも指摘されているように、軍事領域ではすでにこの構造が顕在化している。人間が判断にかける時間は極端に短く、事実上、AIの提案を追認するだけの存在に近づいている。これは極端な例ではない。

広告、金融、行政、医療、、あらゆる分野で同じ構造が広がりうる。人間は判断しているつもりで、実際にはアルゴリズムの慣性を追認しているだけになる。これは、自覚なき判断主権の割譲だ。

-

このようにAIは生産性革命ではない。価値分配と判断主権の再設計である。

結論を出すべきは「国産LLMを作るかどうか」ではない。問いは、

  • 判断モデルをどこまで内製するか、
  • 最適化関数を誰が決めるか、
  • データ統合基盤を誰が握るか、
  • エージェント実行権を誰が持つか、

ではないだろうか。

AIはツールではない。OSである。OSを握れなければ、制度の主語は外に移る。

そしてもう一つ、ここから導かれる帰結がある。人の教育を抜本から見直す必要が出てくるということだ。

AIが「判断の途中工程」をすべて担う世界では、人間に残るのは「何がいい、悪い」「何が欲しい、欲しくない」という切実な価値観、その人なりの心のベクトルである。それがない人には、やることが何もなくなる。

しかし、今の教育はどうか。暗記、計算、定型的な整理…。これらはすべて、人間よりもAIが得意とする「loopの中身」の技能だ。僕たちは、AIに代替されるための能力を、子どもたちに必死に競わせているのではないか。

いまの中学生が社会に出る頃には、この変化は不可避なものとして顕在化する。制度の改訂を待っていては手遅れになる。 残された選択肢は「自衛」しかない。学校が教えられないのであれば、家庭で、あるいは志を同じくするコミュニティで、子どもたちの「意志」を育むしかない。

僕らが取り組んでいる都市集中型社会に対するオルタナティブ検討(「風の谷をつくる」運動論)も、ある種、この「判断主権」を取り戻すための実験場といえる。 都市の最適化アルゴリズムが導き出す「効率的な生」から一歩外れ、自分たちはどのような環境で、どのような手触りを持って生きたいのか。その「意志」を、テクノロジーを使い倒しながら自らの手に取り戻す。

AIが成功しすぎる時代に人間が持つべきは、高度な技能ではなく、野生に近い、その人なりの生の経験から生まれた知覚に基づく「意志」になる(とはいえ、料理人などリアルワールド側の職人的な世界は残る)。 何をよしとし、何を許さないか。どこへ向かうべきで、どこへは向かわないか。 その「最適化関数」自体を自分で書き換える力を養うこと。それこそが、これからの教育、そして僕らの生存戦略の核心になるのではないだろうか。


-

ps1. この話は二年前に文科省の10年に一度の教育指導要領見直しの始まったときに投げさせて頂いた以下の話と呼応している。
www.mext.go.jp

ps1.5. この記事で問いかけた「判断の主語はどこにあるのか」については、続編として「関数主権 ― AI時代に問われるもう一つの主権」を書きました。AIが社会の判断を代行する時代に、「何を最大化するか」という関数を誰が握るのか、その設計空間について掘り下げています。
kaz-ataka.hatenablog.com

ps1.7. さらに、この記事が前提にしていた「サイバー空間で閉じる世界」の外にある価値の話、物質・身体・時間の一回性の中にしか成立しない「閉じない世界」の論を、「閉じる世界と閉じない世界」として書きました。ホワイトカラー/ブルーカラーという20世紀的な序列が「閉じるか、閉じないか」という軸でひっくり返る、という構造の話です。
kaz-ataka.hatenablog.com

ps2.『風の谷という希望』の人材育成に関する章(第12章「谷をつくる人をつくる」)ではこの視点も踏まえた、僕らのより深い総合的な視点をまとめています。

ps3. 本稿では、AIが成功しすぎる時代に人間に残るのは『意志』だと論じた。だがその意志は、どこで育まれるのか。一つの答えが、unpaid workの現場にある。育児・介護は、予測不能、不可逆、マニュアルなし、毎回条件が変わる、構造としては、AIが最も触れにくい『閉じない世界』そのもの。しかもそこで育まれる知覚と能力は、物質に痕跡が残らないがゆえに、社会から原理的に見えにくい。評価されていないのは能力がないからではなく、物差しが貧弱だからではないか。この問いを正面から論じたのが先日書いた『名前のない能力について』です。

kaz-ataka.hatenablog.com

*1:www.diamond.co.jp

*2:




以上の内容はhttps://kaz-ataka.hatenablog.com/entry/2026/02/10/132414より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14