以下の内容はhttps://kaz-ataka.hatenablog.com/entry/2026/02/12/081919より取得しました。


関数主権 — AI時代に問われるもう一つの主権


Putney, VT, U.S.A.
Leica M7, 1.4/50 Summilux, RDPIII

この半年ぐらい、ソブリンAI(国家主権AI)をどう考えたらいいんですかね、という質問をよく受ける。質問をされる人は政治家の方だったり、政府の方だったりと色々だ。ただ、話をしていて、違和感が残ることが多い。

その問いが、いつも途中で次のようなかたちに替わっていくことが多いからだ。

  • 国産のLLMは必要なのか?
  • GPUをうむ技術と生産力を国内に持つべきか?
  • それが置かれる計算資源をこの国内に持つべきか?
  • それを支える電力が足りない問題をどう考えたらいいのか?
  • 米中のbig playersが兆円単位でお金を溶かして取り組んでいる巨大なモデル構築に飛び込むべきなのか?

しかし、その議論はどこかで主語を取り違えている。

もちろん一定以上に重要な論点ではあるのだが、ここから議論を始めてしまうと本当に見極めるべき深めの問題がすり抜けていくように感じるのだ。

kaz-ataka.hatenablog.com

この前回の議論を踏まえると、少なくとも一つの核心的な問いがある。AIが社会の判断を担うとき、その基準を誰が決めるのか。

AI native化が進む社会では、バリューチェーンにおける中間工程の付加価値は本当に急激に薄くなる可能性が高い。ディレクションとダメ出し、責任主体という判断の両端だけが付加価値の源として残る。ということは、判断の主語がどこにあるのか、こそが本筋の問題のはずだ。

もう一つの主権とは、最後に「何を優先するか」を決める力のことだ。

-

前回は、

  • 判断モデルをどこまで内製化するか
  • 最適化関数を誰がつくるのか
  • データ統合基盤を誰が握るか*1
  • エージェントの実行権を誰が持つか

が鍵になると問いかけたが、今回はその先の話をしたい。それは国産LLMをつくるべきかではなく、将来にわたってこの国が行き詰まりに陥らない選択肢を持ち付けられるかどうかだ。AIがこのまま大きく成功、広がっていく社会において、判断の主語が静かに国の外に移っていかないようにするそのための設計空間について考えてみたい。

-

従来、主権 (sovereignty) *2の核心的要素は、領土に対する排他的統治、軍事力(暴力の合法的な独占)、および通貨発行権に代表される経済的自決権であるとされてきた。

しかし、AIが社会のあらゆる判断を支援し、代行していくAI native時代においては、おそらくもう一つの主権対象が浮上してくる。

AIは殆どの場合、「何かを最大化」している。それは効率、利回り、滞在時間、安全性、公平性と言ったものだ。ここには大きな判断が伴う。たとえば医療であれば、平均寿命なのか、QOLなのか。事業のプランニングであれば、事業の効率か、地政学的なレジリエンスか、などだ。

問題は、そのAIが最大化を図ろうとする目的関数を誰が決めるのか、だ。これは技術仕様ではなく価値判断だ。AI native社会では、この価値判断は、数式として、アルゴリズムとして、社会に埋め込まれていく。もちろん人間が最初は設定する(と自分では思う)。

ただ、問題は、多くの場合、アルゴリズムの深い部分にあるこの選択が、意識されないまま外部に委ねられる可能性が高いということだ。

-

たとえば、ある金融機関が海外製の与信AIを導入する時、その最適化関数のベースの部分は、既にモデルに組み込まれている。成長重視、安定重視など、多少は調整可能だとしても、その深い重み付けはブラックボックスの中にある。導入企業は、出力される与信判断を追認するだけになる。明示的なバイアスでなくとも、判断の深層にある優先順位付けは、気づかぬうちに埋め込まれていく。

行政的に補助金の差配、許認可判断、政策シミュレーションにAIを使う時、そのモデルが外部のブラックボックス的なモデルに委ねているのであれば、それはその判断の主体性 (ownership) を持っているといえるかどうかは、仮に毎回"human in the loop"の形態で、人間がgo/no goを判断していたとしてもなかなかに厳しい話となる。

なぜなら、人間が選ぶのは「提示された選択肢」の中からであり、その選択肢の生成そのものが既に最適化関数によって規定されているからだ。長期的には、組織の思考様式そのものがその枠組みに適応していく。

そして、一度、深く依存すると、その主体はそう簡単には抜け出せなくなる。データがモデルの内部に深く蓄積され、業務が最適化され、その組織、主体がその前提で動き始める。切り替えコストは指数関数的に跳ね上がる。

もしこの「何を最大化するか」という関数が、社会の根幹に関わる領域で、国家や社会が触れることも更新することもできない外部ブラックボックスに固定されているなら、それは技術の問題ではなく、主権の問題になる。

形式上は私企業の判断でも、構造上は、政策の自由度が外部に制約される状態に近づく。これは「関数主権」の喪失といえる。

ここで誤解がないようにしておきたいのだが、関数主権とは、社会の最適化関数を国家が独占することではない。それを理解し、監査し、必要なら書き換えられる「選択肢」をその判断主体が持ち続ける力のことだ。

産業革命の核心が動力の制御にあったとすれば、AI時代の核心は判断の制御にあるのかもしれない。

-

国産LLM論においてこれを考えようとするならば、もう一段、解像度を上げる必要がある。これは一つの密結合物のように見えるかもしれないが、実際には4つのレイヤに分かれている。

モデル層、データ層、実行基盤層、そして運用・価値化層だ。

(1) モデル層は、いわゆる基盤モデルそのものであり、アーキテクチャ × 基盤的な学習の集合体だ。ある種、最も資本集約的な存在といえる。

(2) データ層は雑多なものの集合体だが、大きく三つに分かれる。Instagram、X、YouTubeなどソーシャルメディアに集積する膨大な行動データ。EC・各種サービス利用に伴う購買・行動ログ。そして、医療の診断画像、自動車の走行データなど、事業ドメイン性の高い専門データだ。前者二つはOSやメガPFの天下だが、専門データはドメインごとの強いプレーヤーが力を握る。

(3) 実行基盤層は、GPUや推論インフラ、クラウド系がこれに当たる。最近はエッジデバイス(皆さんの手元にあるスマホやセンサーを持つデバイス)側でも処理が始まっており、これらをネットワーク化し、バーチャルな巨大クラウドとして活用する流れもある。演算をひたすら色々な余った計算資源で行うweb3の世界に近い*3

(4) 運用・価値化層は、領域ごとに構築される知識検索基盤というべきRAG、業務統合、ガバナンス系などだ。最適化関数の明示化、監査能力、実行権限の設計などが含まれる。関数主権の実装レイヤとも言える。

以上だが、議論は往々にして(1) モデル層、(3) 実行基盤層に集中しがちだ。だが、社会や国レベルで関数主権的にリスクが高いのは実は(4)だ。この何を最大化するという役割を担う設計層を失うと、相当にしんどい状況になる。

-

とはいえ、(1)の基盤モデル自体にも判断基準やバイアスが埋め込まれているリスクも拭い去れない。

具体的には、学習データの偏り*4、アラインメントの方向性、推論時の優先順位などだ。これらは既にモデルに内在しており、運用面での監査や検証では完全には解決できない。たとえば、特定の政治的・文化的アラインメントが強く反映されるケースもある。

仮にRAGで文脈を補正しても、モデルの深い部分にある「何が重要か」という判断のクセは残る。複数のモデルを比較すれば、偏りを可視化していくのには役立つが、解消はできない。人間の最終判断は、当然のことながら、モデルの提示する選択肢の枠に相当引っ張られることになる。

-

だからこそ、行政、医療、安全保障など、社会を動かすインフラ的な基幹領域では、軽くて良いので国産の選択肢を持つことが交渉力になる。選択肢があるという事実そのものが、価格と設計思想の両方に影響を与えるからだ。

最新のオープンな基盤モデルとクローズドなそれの性能差は急速に縮まりつつあり、かならずしも世界最高性能である必要はない。国外のモデルと比較と差し替えが可能で、必要なら判断の深い部分まで監査ができる代替手段を持つということだ。

なにもかもの完全な国産化は直近では非現実的だが、国外のモデルしか選択肢がない状態は避ける。これが現実的な「関数主権」を維持する姿だろう。現実的な抑えどころを整理しておく。

  1. 公 (public sector) 領域の最適化関数、少なくとも「何を優先しているか」を説明できる状態にする。これは規制ではなく透明性を競争力にするという発想だ。ブラックボックスに委ねるのではなく、判断の根拠を説明できることが信頼の源泉になる。
  2. モデルを差し替えられる設計にする。特定のベンダーに依存しきった瞬間、交渉力は失われる。「公」の調達では、データの持ち出し、モデルの差し替え、監査ログの取得を標準要件にする。
  3. 実行レイヤの設計思想と実行権限は国内で握れる状態にする。誰に何を配分するか、どの申請を通すか、どのリスクを許容するか、などだ。AIの性能競争ではなく、判断の設計力で勝負するということだ。

-

世界最大のモデルを作る力で対抗できなくとも、安全性、説明責任、品質管理という日本がこれまでも磨き込んできた思想を徹底的にインプリメント(implement)する。

あらゆる産業と機能がAI native化する時代において、この思想は「関数の設計と監査」という形で価値を持つ。どう最適化するか、どう偏りを検証するか、どう責任を明確にするか、ここでの標準を生み出すことができれば、技術の覇権とは異なる別の主導権が生まれる。

たとえば、医療AIの判断基準を多様な価値観で切り替え可能にする。行政AIにおいて配分ロジックを透明化し、地域ごとの優先順位を調整可能にする。またたとえば、金融AIの与信判断を、リスク選好の異なる複数モデルで比較検証するプラットフォームなどだ。

技術の源泉を握られても、設計思想で勝てる領域はある。歴史はそれを何度も示してきた。たとえば、インターネットのプロトコルを握っていなくても、検索アルゴリズムで世界を変えた企業がいる。半導体の製造能力をすべて握っていなくても、アーキテクチャ設計で価値を握る企業もある。

この問題は、単なる国家安全保障の話ではない。産業構造そのものが、次の段階に移るという話でもある。


かつてまとめた上の図の通り、AI×データ化には次のフェーズがある。

それは、様々な分野、様々な機能のAI×データ利用がつながり合う、大きなエコシステムとなるフェーズだ。これはインテリジェンス・ネットというべき状態だ。ここでは、クルマ、スマホ、医療など意外や意外の複雑な絡み合い (complexity) の仕切り (management) が大切になり、単純な覇権構造では収まりきらない。このような混迷度が高い世界になればなるほど、また新しい課題解決が生まれてくる。

主権とは、最後に何を優先するかを決める力だ。
AI時代、その場所はコードの中にある。

*1:とはいえ生成AIは物理統合をやめて、意味統合をやっているため、データレイクを作れ、物理的に全部集めろという話ではない。統合が消えたというより、「統合の場所が世界モデル内部に移った」と考えるべき。

*2:国家がその領土と国民に対して持つ、最高・絶対・独立の権力であり、国の意思を最終的に決定する権威。対内的には国内のあらゆる集団・個人を支配する最高権力(supreme power)、対外的には他国からの干渉を受けない独立性(independence)を意味する

*3:ばらばらにある計算資源のネットワーク化の構想自体は、少なくとも20年以上前からある古い概念とも言える。

*4:これは機械学習の性質上どうしても起きるので元々相当の補正が必要。たとえば特定の地域や文化のデータが多ければ、その価値観が判断に反映されやすくなる。




以上の内容はhttps://kaz-ataka.hatenablog.com/entry/2026/02/12/081919より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14