以下の内容はhttps://shigeo-t.hatenablog.com/entry/2026/02/17/050000より取得しました。


謎の躍進 AIあんのはClaude

まずこちら。

 

 

なんと実際にはClaudeだという。

 

何を使っているのかもわからない、規約も見ていない。ノリが軽すぎる。手元で遊んでいて公開しないならそれでもいいけど、公党がこれじゃヤバ過ぎるだろ。𝕏でもやらかしてる。

 

というわけで、疑われたGeminiでレポートを作った。長いので、『「AIあんの」の技術的構成とプラットフォーム依存のパラドックス』だけを読めば十分である。しかしGeminiってなんで話長いの?

 

 

スクリプト

「AIあんの」について、指摘されている問題点を教えて

デジタル民主主義におけるAI活用の技術・倫理・法的リスク:安野貴博「AIあんの」プロジェクトを事例とした総合研究報告書

序論:日本政治のOSアップデートとAI実装の衝撃

現代の民主主義は、情報伝達速度の加速と社会の複雑化という二律背反の課題に直面している。この文脈において、2024年の東京都知事選挙を皮切りに日本の政治シーンに登場した安野貴博氏の試みは、テクノロジーによる政治プロセスの再定義、すなわち「政治のOSのアップデート」を目指す野心的な実験として注目を集めてきた 1。安野氏が主導する「AIあんの」および「デジタル民主主義2030」プロジェクトは、大規模言語モデル(LLM)を中心としたAI技術を駆使し、有権者との24時間365日の対話や、市民の声を直接政策に反映させる「ブロード・リスニング(大規模な傾聴)」の実現を掲げている 3

しかし、こうした革新的な試みが現実の政治・行政プロセスに実装される過程で、既存の法的枠組み、倫理的規範、そして技術的な信頼性を巡る数多くの問題点が浮き彫りになった 6。本報告書では、ドメイン・エキスパートの視点から「AIあんの」プロジェクトにおいて指摘されている諸問題を、技術的整合性、法的コンプライアンス、倫理的受容性、そして政治的信頼性の四つの観点から包括的に分析する。この分析は、単一のプロジェクトへの評価に留まらず、AI時代の民主主義が直面する構造的な課題を浮き彫りにするものである。

「AIあんの」の技術的構成とプラットフォーム依存のパラドックス

「AIあんの」の最大の技術的特徴は、有権者からの質問に対し、候補者本人の声とアバターを用いてリアルタイムで回答を生成する対話システムにある 5。このシステムは、候補者のマニフェストや過去の発言データを学習させたLLMを核としている。しかし、このシステムの「心臓部」である基盤モデルの選択と管理を巡り、プロジェクトの信頼性を揺るがす重大な事案が発生した。

2026年の衆議院選挙直前、YouTube番組の生配信中において、安野氏は自らのシステムのベースモデルについて「たしか今はGemini(Google製)だったと思います」と発言した 8。この発言は直ちに、Google利用規約が選挙活動へのAI利用を制限しているという指摘を招き、炎上状態へと発展した 8。その後、安野氏は「Claude(Anthropic製)だったかもしれない」と曖昧な修正を行い、最終的にチームがClaudeの使用を認めるに至ったが、このプロセスは「天才エンジニア」という看板を掲げるプロジェクトにとって致命的な「技術的ガバナンスの欠如」を露呈させることとなった 8

この問題の本質は、単なる記憶違いではなく、現代のAIプロジェクトが抱える「巨大プラットフォームへの構造的依存」にある。特定の私企業のAPI(アプリケーション・プログラミング・インターフェース)に依存したシステムは、その企業の規約変更やポリシー決定に、国家の民主的プロセスが左右されるリスクを内包している。これは「デジタル植民地主義」とも呼ぶべき事態であり、日本の政治的意思決定の基盤が米国のIT企業の「憲法(倫理規定)」の範囲内でしか機能しないという構造的脆弱性を示唆している 8

表1:主要AIモデルの利用規約と政治利用におけるリスク比較

 

評価項目

Google Gemini

Anthropic Claude

政治実装における課題

選挙活動制限

明確な制限条項あり 8

独自の倫理規定による制約 8

規約変更によるサービス停止リスク

政治的中立性

企業方針によるガードレール

「クロードの憲法」に基づく価値判断 8

日本独自の政治的文脈との齟齬

データの透明性

学習データの詳細は非公開

安全性に配慮した透明性報告

アルゴリズムの不透明性(ブラックボックス

依存度

API経由の従量課金モデル

API経由の従量課金モデル

外資プラットフォームへの主権委ね

このような依存関係は、プロジェクトが標榜する「オープンソース」という理念とも矛盾する。システムのガワ(インターフェース)は公開可能であっても、その推論を司るモデル自体が非公開のプロプライエタリな技術である以上、完全な透明性の確保は不可能である 8

「ブロード・リスニング」の功罪:民意の可視化と監視社会への境界線

安野氏が提唱する「ブロード・リスニング」は、台湾のオードリー・タン氏らが推進した「Talk to the City」などのツールを活用し、SNS上の膨大な投稿や市民の意見をAIで解析、集約する手法である 1。これは、パブリックコメントなどの従来型手法を高度化し、サイレント・マジョリティの声を可視化する可能性を秘めている 4都知事選時には、GitHubを活用してマニフェストを公開し、市民からの「プルリクエスト(修正提案)」を受け付けるなど、開発者コミュニティの手法を政治に取り入れた 1

しかし、この「聴く技術」は、裏返せば「監視する技術」へと容易に転用され得る。安野氏は、SNS上での批判的な投稿や誤情報の拡散ネットワークを可視化する「分析用ツール」の開発を表明したが、これが批判的な有権者ブラックリスト作成や、反対派のネットワーク監視につながるのではないかという懸念が噴出した 8。テクノロジーによって意見の「繋がり」を可視化する行為は、個人の匿名性や自由な言論空間をアルゴリズムによる統制下に置くリスクを孕んでいる。

また、GitHubを用いた政策立案についても、参加のハードルと意思決定の透明性に課題がある。当初はエンジニア以外の参加が困難であったが、後に「Model Context Protocol (MCP)」の導入により、自然言語による対話から自動でプルリクエストを生成する仕組みを構築し、参加者数を一気に拡大させた 1。しかし、膨大な数の提案の中からどれを「マージ(採用)」し、どれを棄却するのかという最終的な判断基準は、依然として安野氏とそのチームという「特定の中央集権的主体」に委ねられている。アルゴリズムが「多数の合意」として提示した結論が、本当に公正なものであるかを検証する第三者的機関は存在しない。

死者の尊厳と「故人AI」:倫理的防波堤の崩壊と心理的拒絶

安野氏のプロジェクトおよび彼のSF作家としての言説の中で、極めて高い倫理的ハードルとして立ちはだかっているのが「死者のデジタル複製(故人AI)」の問題である 6。安野氏は、亡くなった人をデジタル上で再現することについて肯定的な考えを示しているとされるが、これに対し「死者の尊厳を冒すものである」という根源的な批判が寄せられている 6

故人AIの問題点は多岐にわたる。第一に、故人が生前には決して行わなかった言動を、AIがいかにも「本人らしく」作り出してしまう点である 10。これは故人の人格権を侵害するだけでなく、遺族の悲嘆プロセスを歪める可能性がある。第二に、故人には自己の肖像や声がAIとして利用されることに対し、事後的な同意や拒否の意思表示ができないという点である 10。現在の日本の法的枠組みでは、死者の権利保護は非常に限定的であり、テクノロジーの進歩に法規制が追いついていない 11

さらに、AIアバターの造形が人間に近づきすぎることで発生する「不気味の谷現象」も、社会的な受容を妨げる大きな要因となっている 12

表2:AIアバター不気味の谷現象の具体的要因分析

 

要因

心理的影響

政治的・社会的リスク

外見の不自然さ

目や口の動きの非同期 14

候補者の「誠実さ」への疑念

音声の違和感

感情の「揺らぎ」の欠如 16

メカニカルな印象による拒絶感

生存本能の刺激

死体や病者に近い知覚 14

本能的な忌避感による支持低下

人格の不在

「出力物」としての虚無感 16

政治的リーダーシップの欠如と誤認

安野氏のAIアバターに対しても、「読みやすく整っているが、どこにも『揺らぎ』がなく、個人が不在である」という違和感が指摘されている 16。政治において重要な要素である「情熱」や「苦悩」といった身体的実感を伴う情報が、AIによる最適化された出力によって削ぎ落とされてしまうことで、有権者はそこに「機械的な空虚さ」を感じ取り、不信感を募らせる結果となっている。

知的財産権表現者の存立基盤:パブリシティ権の空白地帯

「AIあんの」が採用している音声合成技術や映像生成技術は、表現者の権利保護という観点からも大きな問題を孕んでいる。日本俳優連合(日俳連)などの業界団体は、生成AIによる声や演技の無断学習に対し、強い危機感を表明している 18。安野氏自身は自身の権利を承諾した上でシステムを構築しているが、この技術が政治のスタンダードとなれば、他人の声を無断で模倣し、偽のメッセージを流布する「ディープフェイク」の一般化を加速させる懸念がある 6

声は、声優や俳優が人生をかけて培ってきた技術の結晶であり、人格の一部である 19。しかし、現行の著作権法では「ありふれた日常会話」などの声そのものには著作権が発生しないという解釈が一般的であり、生成AIによる無断利用は法的な抜け穴となっている 22。日俳連は、声の肖像権とも呼ぶべき「声のパブリシティ権」の確立や、AI規制法の制定を強く求めている 20

表3:知的財産権と生成AIを巡る法的課題の構造

 

権利の種類

現状の解釈と保護範囲

AI利用における問題点

著作権

創作的な表現にのみ発生 22

声の音色そのものは保護対象外

肖像権

容姿の無断撮影・利用を禁止 11

AI生成映像の類似性の証明が困難

パブリシティ権

著名人の顧客吸引力を保護 24

「声」のみでの侵害認定が未確立

人格権

個人の尊厳を守る包括的権利

AIによる成りすましによる精神的苦痛

安野氏のような技術的先駆者が、こうした表現者の権利侵害リスクを十分に考慮せず、効率性や利便性のみを強調してシステムの普及を図る姿勢は、文化・芸術の持続可能性を脅かすものとして厳しく批判されている 19

政策立案におけるアルゴリズムのバイアスと責任所在の曖昧性

AIを政治判断の補助として利用する際、最も懸念されるのが「アルゴリズムのバイアス」と、誤った判断がなされた際の「責任の所在」である。この懸念が現実のものとなったのが、安野氏がSNS上で投稿した「ぜんそく治療薬の保険適用除外」を巡る提言であった 6

安野氏は、「予防を全くしていないにも関わらず、発作を起こしたときにその場しのぎの薬をもらう方は保険で対応しない」という趣旨の投稿をしたが、これが医療現場の実態や、様々な事情で受診が困難な患者の背景を無視したものであるとして、大きな批判を浴びた 6。この事案は、AIやデータに基づいた「一見合理的だが血の通わない」判断が、いかに社会的弱者を切り捨て、命の選別に繋がり得るかを如実に示した。安野氏は後に、レセプトデータなどの限られたデータのみで患者の受診行動を評価することの危うさを認め謝罪したが、これは「AIの出力結果に対する検証不全」という深刻なバグを露呈させた 6

また、安野氏が導入を主張している「AIファクトチェッカー」についても、その中立性に疑問が呈されている 6。国際的なファクトチェックの原則では、検証は第三者によって行われるべきであり、権力を持つ側や当事者が行うものは、むしろ特定の言論を封じ込める検閲ツールになる恐れがある 6

候補者の誠実性と透明性:デジタル・ディスクロージャーの限界

政治家としての信頼性は、掲げる理念と実態の整合性によって担保される。安野氏は、テクノロジーによって政治の透明性を高めることを至上命題として掲げ、政治資金の透明化ダッシュボードなどを開発してきた 2。しかし、彼自身の行動において、その「透明性」への姿勢に疑問符がつく事態が発生している。

具体的には、議員の資産公開において多額の資産を保有していることが明らかになった一方で、選挙期間中には「お金に余裕がない」という設定で寄付を呼びかけていたことが判明し、支持者から不信感を抱かれる結果となった 6。デジタル技術を駆使して「清廉潔白」なイメージを構築しながら、その実、伝統的な政治手法としての「寄付集めのための演出」を行っていたという乖離は、デジタル民主主義における誠実さの欠如として批判されている。

また、Wikipediaなどのオンライン百科事典において、安野氏の資産公開や批判的な記述を巡る「編集合戦」が発生し、支持者や関係者による組織的な情報の隠蔽・宣伝が疑われたことも、情報の自由な流通を掲げるプロジェクトの理念とは相容れないものである 6

結論:持続可能なデジタル民主主義の構築に向けた提言

安野貴博氏の「AIあんの」プロジェクトが示したのは、テクノロジーによって政治の門戸を開くという明るい展望と同時に、その制御を誤った際にもたらされる暗い影である。指摘されている問題点の多くは、単なる技術的ミスではなく、民主主義の根幹に関わる思想的な対立に根ざしている。

  1. 脱・プラットフォーム依存とデジタル主権の確立: 外資IT企業のAPIに依存した政治インフラは、国家の自律性を損なう。国産LLMの活用や、透明性の高い独自の計算基盤の構築が不可欠である。
  2. AIガバナンスの人間中心主義への回帰: AIによる分析や出力はあくまで補助であり、最終的な判断と責任は人間が負うという原則を、より強固なプロセスとして組み込む必要がある。特に医療や福祉などの命に関わる領域でのAI提案は、多角的な人間による検証を必須とすべきである。
  3. 表現者の権利を尊重するエコシステムの構築: 音声や映像の生成にあたっては、表現者の人格的権利を保護するための法整備を急ぎ、適切な収益還元モデルを構築しなければならない。
  4. 透明性の自己適用: 他者の透明性を求めるだけでなく、候補者自身の資産や意思決定プロセス、アルゴリズムの選択基準についても、最大限の開示を行うべきである。

デジタル民主主義の実現は、単に便利なツールを導入することではない。それは、テクノロジーがいかに人間の尊厳を損なわず、むしろ拡張できるかという、困難だが避けて通れない社会的合意形成のプロセスそのものである。安野氏のプロジェクトにおいて露呈した「バグ」を教訓とし、よりしなやかで公正な民主主義のシステム設計を模索し続けることが、我々に課せられた課題である。

引用文献

  1. RadicalxChange(s) - Apple Podcasts, 2月 16, 2026にアクセス、 https://podcasts.apple.com/us/podcast/radicalxchange-s/id1547525454
  2. Team Mirai's 11-Seat Win Shifts Japanese Political Landscape, 2月 16, 2026にアクセス、 https://www.chosun.com/english/world-en/2026/02/11/XWBKLS2TLVG73BYIUYN72Z4XPM/
  3. 安野たかひろ 公式ホームページ, 2月 16, 2026にアクセス、 https://takahiroanno.com/
  4. 安野貴博、AIプロジェクト「デジタル民主主義2030」立ち上げ ..., 2月 16, 2026にアクセス、 https://note.com/annotakahiro24/n/nfd4a855cd1a8
  5. Takahiro Anno: Fixing Bugs in Democracy - Apple Podcasts, 2月 16, 2026にアクセス、 https://podcasts.apple.com/us/podcast/takahiro-anno-fixing-bugs-in-democracy/id1547525454?i=1000736293621
  6. 安野貴博 - Wikipedia, 2月 16, 2026にアクセス、 https://ja.wikipedia.org/wiki/%E5%AE%89%E9%87%8E%E8%B2%B4%E5%8D%9A
  7. 【見逃し配信】『安野貴博氏 記者会見』AIプロジェクト「デジタル民主主義2030」を開始について (日テレNEWS LIVE) - YouTube, 2月 16, 2026にアクセス、 https://www.youtube.com/watch?v=jRiwh_unxP0
  8. 「AIあんの」中身はGemini? 天才エンジニアが晒した死角でSNSは ..., 2月 16, 2026にアクセス、 https://coki.jp/article/column/68752/
  9. A Manifesto — Institute for Ethics in AI - 6-Pack of Care, 2月 16, 2026にアクセス、 https://6pack.care/manifesto/
  10. 「故人AI」の問題を哲学・倫理学の観点から考察し、社会受容への道筋をさぐる 佐藤啓介さん, 2月 16, 2026にアクセス、 https://scienceportal.jst.go.jp/explore/interview/20250610_e01/
  11. AIと肖像 | 記事 | 新日本法規WEBサイト, 2月 16, 2026にアクセス、 https://www.sn-hoki.co.jp/articles/article3170067/
  12. 不気味の谷現象とは?ロボットやAIが怖いと感じる理由 - American Express, 2月 16, 2026にアクセス、 https://www.americanexpress.com/ja-jp/business/trends-and-insights/articles/uncanny-valley/
  13. 【真実】生成AI広告に違和感があるのか?うまく使いこなす方法を教えます! - HackAi, 2月 16, 2026にアクセス、 https://hackai.cyand.co.jp/article/generated-ai-advertising/
  14. 【99%の人が経験】AIにゾっと嫌悪感を抱く「不気味の谷現象」とは何か?【小学生でもわかる科学・ざっくり解説】 - YouTube, 2月 16, 2026にアクセス、 https://www.youtube.com/watch?v=I0lP-HZTexA
  15. なぜ、CGは嫌われる? ヴァーチャル・ヒューマンに対する「不気味の谷現象」問題を追う(第4回:不気味の谷を乗り越える日〜2000年代後半から、現在(2016年)まで〜) - CGWORLD.jp, 2月 16, 2026にアクセス、 https://cgworld.jp/feature/201605-theuncannyvalley04.html
  16. 生成AIが生み出す“不気味の谷” 人が作ったはずなのに、人を感じない|kajimura - note, 2月 16, 2026にアクセス、 https://note.com/kajimura/n/na3d81cb5e94e
  17. AI文章の「不気味の谷」を乗り越える。書き手が「本人感」を取り戻すための、2つの選択肢。 - note, 2月 16, 2026にアクセス、 https://note.com/takeshiatarashi/n/nb2803c17fd6f
  18. 生成AIに対する意見を内閣府へ提出いたしました - 日本俳優連合, 2月 16, 2026にアクセス、 https://www.nippairen.com/jaunews/post-20229.html
  19. 「私たちの声を無断で生成AIに使うな」 生身の人間の演技や声は作品の魂 声優所属の3団体が共同で意見表明 | 長周新聞, 2月 16, 2026にアクセス、 https://www.chosyu-journal.jp/kyoikubunka/33051
  20. 日本俳優連合が“生成AI”に提言 「新たな法律の制定を強く望む」 声の肖像権確立など求める, 2月 16, 2026にアクセス、 https://www.itmedia.co.jp/news/articles/2306/14/news133.html
  21. 声優AIが変える未来|業界への影響と著作権・活用事例徹底解説 -, 2月 16, 2026にアクセス、 https://fullfront.co.jp/blog/generative-ai/sound-generation/voice-actor-ai-future-copyright/
  22. AIで「声」を生成すると著作権侵害になる?(#1 開発・学習段階編) | モノリス法律事務所, 2月 16, 2026にアクセス、 https://monolith.law/corporate/ai-voice-copyright-1
  23. 「生成AIについての公開質問状」回答の発表 | Japan Actors Union | 日 本 俳 優 連 合, 2月 16, 2026にアクセス、 https://www.nippairen.com/jaunews/post-29985.html
  24. 生成AIとパブリシティ権 - 明倫国際法律事務所, 2月 16, 2026にアクセス、 https://www.meilin-law.jp/%E7%94%9F%E6%88%90ai%E3%81%A8%E3%83%91%E3%83%96%E3%83%AA%E3%82%B7%E3%83%86%E3%82%A3%E6%A8%A9/
  25. ~AI社会の到来に備える~ AI学習が許されるのはなぜ?AI生成物が著作権、隣接権、肖像権を侵害する? 寺内康介|コラム | 骨董通り法律事務所 For the Arts, 2月 16, 2026にアクセス、 https://www.kottolaw.com/column/230427.html
  26. 声優の無断生成AI問題とは?業界への影響と権利侵害について解説します - note, 2月 16, 2026にアクセス、 https://note.com/sharecle/n/n9e766ae30dff
  27. 卒論指導で見えた生成AIとの付き合い方 ― その正体と活用をめぐる3つの話, 2月 16, 2026にアクセス、 https://blogs.itmedia.co.jp/murayama/2026/02/ai_3.html

 

長げえよw

 

薄っぺらいのはずっと。

 

shigeo-t.hatenablog.com

shigeo-t.hatenablog.com




以上の内容はhttps://shigeo-t.hatenablog.com/entry/2026/02/17/050000より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14